JP6672508B2 - Virtual space experience system - Google Patents
Virtual space experience system Download PDFInfo
- Publication number
- JP6672508B2 JP6672508B2 JP2019105099A JP2019105099A JP6672508B2 JP 6672508 B2 JP6672508 B2 JP 6672508B2 JP 2019105099 A JP2019105099 A JP 2019105099A JP 2019105099 A JP2019105099 A JP 2019105099A JP 6672508 B2 JP6672508 B2 JP 6672508B2
- Authority
- JP
- Japan
- Prior art keywords
- player
- avatar
- virtual space
- coordinates
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、3Dモデルで表示された仮想空間にプレイヤー自身が存在していると認識させるための仮想空間体感システムに関する。 The present invention relates to a virtual space experience system for recognizing that a player himself is present in a virtual space displayed by a 3D model.
従来、仮想空間を生成し、その仮想空間の画像をヘッドマウントディスプレイ等でプレイヤーに認識させ、プレイヤー自身がその仮想空間に存在していると認識させる仮想空間体感システムが知られている。 BACKGROUND ART Conventionally, a virtual space sensation system has been known in which a virtual space is generated, an image of the virtual space is recognized by a player on a head-mounted display or the like, and the player itself is recognized as being present in the virtual space.
この種の仮想空間体感システムとしては、モーションキャプチャー装置等によってプレイヤーの現実空間における動作を検出し、その検出した動作に応じてプレイヤーに対応するアバターを仮想空間で動作させるものがある(例えば、特許文献1参照)。 As a virtual space sensation system of this kind, there is a virtual space sensation system in which a motion of a player in a real space is detected by a motion capture device or the like, and an avatar corresponding to the player is operated in a virtual space according to the detected motion (for example, see Patent Reference 1).
ところで、特許文献1に記載の従来の仮想空間体感システムで、プレイヤー自身が仮想空間に存在しているとの認識をより確かなものとするためには、プレイヤーの現実空間における座標の移動量とアバターの仮想空間における座標の移動量とを、できるだけ近づけることが好ましい。
By the way, in the conventional virtual space sensation system described in
しかし、そのようにプレイヤーとアバターの座標の移動量を近づけようとすると、仮想空間の広さが現実空間の広さによって制限されてしまうという問題があった。 However, if the movement amount of the coordinates of the player and the avatar is brought closer to each other, there is a problem that the size of the virtual space is limited by the size of the real space.
この問題を解消する方法としては、複数の現実空間のそれぞれに対応して生成された複数の仮想空間同士を、仮想空間の内部で接続するという方法がある。例えば、2つの仮想空間を生成し、その2つの仮想空間を仮想空間にのみ存在する階段で接続する方法等である。 As a method of solving this problem, there is a method of connecting a plurality of virtual spaces generated corresponding to each of a plurality of real spaces within the virtual space. For example, there is a method in which two virtual spaces are generated, and the two virtual spaces are connected by steps that exist only in the virtual space.
しかし、このような方法によって仮想空間を広げた場合には、プレイヤーは仮想空間の接続部分において、現実空間とのズレを強く感じさせてしまい、プレイヤーに強い違和感を覚えさせてしまうという問題があった。 However, if the virtual space is expanded by such a method, there is a problem that a player strongly feels a deviation from the real space at a connection portion of the virtual space, and causes the player to feel a strong sense of discomfort. Was.
例えば、上記のように階段によって仮想空間を接続した場合には、一方の仮想空間から他方の仮想空間へ移動する際に、現実空間では平坦な地面となっている場所で、階段の昇り降りのような動作を行わなければならず、仮想空間における認識と現実空間における感覚とがずれてしまい、プレイヤーに強い違和感を覚えさせてしまうという問題があった。 For example, if the virtual space is connected by the stairs as described above, when moving from one virtual space to the other virtual space, the stairs may go up and down on a flat ground in the real space. Such an operation has to be performed, and the recognition in the virtual space is deviated from the sense in the real space, which causes a problem that the player feels strong discomfort.
本発明は以上の点に鑑みてなされたものであり、プレイヤーに覚えさせる違和感を抑えつつ、プレイヤーに現実空間よりも拡張された仮想空間を認識させることができる仮想空間体感システムを提供することを目的とする。 The present invention has been made in view of the above points, and it is an object of the present invention to provide a virtual space sensation system that enables a player to recognize a virtual space that is extended from a real space while suppressing a sense of incongruity that the player can remember. Aim.
上記目的を達成するために、本発明の仮想空間体感システムは、
第1のプレイヤー及び第2のプレイヤーが存在する現実空間に対応する仮想空間を生成する仮想空間生成部と、
1つの前記仮想空間に、前記第1のプレイヤーの動作に対応して前記仮想空間で動作する第1のアバター、及び、前記第2のプレイヤーの動作に対応して前記仮想空間で動作する第2のアバターを生成するアバター生成部と、
前記第1のプレイヤー及び前記第2のプレイヤーの座標を検出するプレイヤー座標検出部と、
検出された前記第1のプレイヤーの座標に基づいて、前記第1のアバターの座標を決定し、前記第2のプレイヤーの座標に基づいて、前記第2のアバターの座標を決定するアバター座標決定部と、
前記第1のアバターの座標及び前記第2のアバターの座標に基づいて、前記第1のプレイヤー及び前記第2のプレイヤーに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
前記第1のプレイヤー及び前記第2のプレイヤーに、決定された前記仮想空間の画像を認識させる仮想空間画像表示器とを備え、
前記仮想空間画像決定部は、前記第1のプレイヤーの座標と前記第1のアバターの座標との対応関係にズレを生じさせるように前記第1のアバターの座標が補正された場合に、前記第1のアバターと前記第2のアバターとの相対座標の変化に基づいて、前記第2のプレイヤーに認識させる前記第1のアバターの画像を変化させるように構成されていることを特徴とする。
In order to achieve the above object, the virtual space sensation system of the present invention includes:
A virtual space generation unit that generates a virtual space corresponding to a real space in which the first player and the second player exist;
In one virtual space, a first avatar that operates in the virtual space in response to the operation of the first player, and a second avatar that operates in the virtual space in response to the operation of the second player An avatar generator that generates an avatar of
A player coordinate detector that detects coordinates of the first player and the second player;
An avatar coordinate determination unit that determines the coordinates of the first avatar based on the detected coordinates of the first player, and determines the coordinates of the second avatar based on the coordinates of the second player. When,
A virtual space image determining unit that determines an image of the virtual space to be recognized by the first player and the second player based on the coordinates of the first avatar and the coordinates of the second avatar;
A virtual space image display for causing the first player and the second player to recognize an image of the determined virtual space,
The virtual space image determining unit, when the coordinates of the first avatar are corrected so as to cause a deviation in the correspondence between the coordinates of the first player and the coordinates of the first avatar, the The image of the first avatar to be recognized by the second player is changed based on a change in relative coordinates between the first avatar and the second avatar.
ここで、「仮想空間の画像」とは、仮想空間の背景の画像の他、他のアバターの画像、仮想空間にのみ存在するオブジェクトの画像、現実空間に対応して仮想空間に存在するオブジェクトの画像等、プレイヤーが自らに対応するアバターの仮想空間における座標を推認し得る画像をいう。 Here, the “image of the virtual space” includes, in addition to the image of the background of the virtual space, an image of another avatar, an image of an object existing only in the virtual space, and an image of an object existing in the virtual space corresponding to the real space. An image, such as an image, that allows the player to infer the coordinates of the avatar corresponding to the player in the virtual space.
また、ここで、プレイヤーの座標とアバターの座標との対応関係にズレを生じさせる「補正」とは、アバターの座標そのものをプレイヤーの座標の移動に関連させずに移動させることの他、プレイヤーの座標の移動量に対するアバターの座標の移動量を変化させること等をいう。 In addition, here, `` correction '' that causes a deviation in the correspondence between the coordinates of the player and the coordinates of the avatar is not only moving the coordinates of the avatar itself without relating to the movement of the coordinates of the player, but also moving the coordinates of the player. This refers to changing the movement amount of the coordinates of the avatar with respect to the movement amount of the coordinates.
第1のプレイヤー対応する第1のアバターと第2のプレイヤーに対応する第2のアバターが1つの仮想空間に存在している場合には、一方のプレイヤーにとって、他方のプレイヤーに対応するアバターの画像が、仮想空間の広さを認識するための1つの基準となる。 When the first avatar corresponding to the first player and the second avatar corresponding to the second player exist in one virtual space, an image of the avatar corresponding to the other player for one player Is one criterion for recognizing the size of the virtual space.
そこで、本発明の仮想空間体感システムでは、第1のアバターの座標が補正された場合に、第1のアバターと第2のアバターとの相対座標の変化に基づいて、第2のアバターに対応する第2のプレイヤーに認識させる第1のアバターの画像を変化させるように構成している。 Therefore, in the virtual space sensation system of the present invention, when the coordinates of the first avatar are corrected, the virtual avatar corresponds to the second avatar based on a change in relative coordinates between the first avatar and the second avatar. The image of the first avatar recognized by the second player is changed.
これにより、この仮想空間体感システムでは、第2のプレイヤーにとって仮想空間の広さの基準となる第1のアバターの画像が変化したことによって、第2のプレイヤーに、現実空間よりも拡張された仮想空間を覚えさせる違和感を抑えつつ認識させることができる。 Thereby, in this virtual space experience system, the second player changes the image of the first avatar, which serves as a reference for the size of the virtual space, so that the second player is provided with a virtual space extended from the real space. Recognition can be performed while suppressing the sense of incongruity that makes the space memorable.
また、本発明の仮想現実体感システムにおいては、
前記第1のアバターの座標及び前記第2のアバターの座標に基づいて、前記第1のプレイヤー及び前記第2のプレイヤーに認識させる音声を決定する仮想空間音声決定部と、
前記第1のプレイヤー及び前記第2のプレイヤーに、決定された音声を認識させる仮想空間音声発生器を備えていることが好ましい。
In the virtual reality experience system of the present invention,
A virtual space sound determination unit that determines a sound to be recognized by the first player and the second player based on the coordinates of the first avatar and the coordinates of the second avatar;
Preferably, a virtual space sound generator for causing the first player and the second player to recognize the determined sound is provided.
このように、プレイヤーにアバターの座標に応じた画像だけでなく音声(例えば、座標に応じた位置から聞こえる他のプレイヤーの声)を認識させるようにすると、アバターの座標が補正された際には、プレイヤーの認識する音声も変化することになる。これにより、プレイヤーは、プレイヤーの座標とアバターの座標との対応関係のズレを、さらに違和感なく受け入れることができる。 As described above, when the player is made to recognize not only an image corresponding to the coordinates of the avatar but also a voice (for example, a voice of another player heard from a position corresponding to the coordinates), when the coordinates of the avatar are corrected, However, the voice recognized by the player also changes. Thereby, the player can accept the deviation of the correspondence between the coordinates of the player and the coordinates of the avatar without further discomfort.
以下、図面を参照して、実施形態に係る仮想空間体感システムSについて説明する。 Hereinafter, a virtual space sensation system S according to an embodiment will be described with reference to the drawings.
まず、図1を参照して、仮想空間体感システムSの概略構成について説明する。 First, a schematic configuration of the virtual space sensation system S will be described with reference to FIG.
図1に示すように、仮想空間体感システムSは、現実空間RSに存在するプレイヤーPに取り付けられる複数の標識1と、プレイヤーP(すなわち、標識1)を撮影するカメラ2と、仮想空間VS(図4B等参照)の画像及び音声を決定するサーバ3と、決定された画像及び音声をプレイヤーに認識させるヘッドマウントディスプレイ(以下、「HMD4」という。)とを備えている。カメラ2、サーバ3及びHMD4は、無線で相互に情報を送受信可能となっている。
As shown in FIG. 1, the virtual space sensation system S includes a plurality of
複数の標識1は、プレイヤーPの装着するHMD4、手袋及び靴を介して、プレイヤーPの頭部、両手及び両足のそれぞれに取り付けられている。
The plurality of
カメラ2は、プレイヤーPの存在する現実空間RSのプレイヤーPが移動し得る範囲を多方向から撮影可能なように、複数設置されている。
A plurality of
サーバ3は、カメラ2が撮影した複数の画像から標識1を検出し、その検出された標識1の現実空間RSにおける位置に基づいて、プレイヤーPの座標及び姿勢を認識し、その座標及び姿勢に基づいて、プレイヤーPに認識させる画像及び音声を決定する。
The
HMD4は、プレイヤーPの頭部に装着される。HMD4には、プレイヤーPに、サーバ3によって決定された仮想空間の画像をプレイヤーPの認識させるためのモニタ41(仮想空間画像表示器)と、サーバ3によって決定された仮想空間の音声をプレイヤーPに認識させるためのスピーカ42(仮想空間音声発生器)と、プレイヤーPの声を集音するためのマイク(不図示)が設けられている(図2参照)。
The
この仮想空間体感システムSを用いてゲーム等を行う場合、プレイヤーPは、仮想空間の画像と音声のみを認識して、プレイヤーP自身が仮想空間に存在していると認識する。 When playing a game or the like using the virtual space sensation system S, the player P recognizes only images and sounds in the virtual space and recognizes that the player P itself exists in the virtual space.
なお、仮想空間体感システムSでは、プレイヤーPの現実空間における座標を認識するシステムとして、標識1とカメラ2とサーバ3とによって構成された、いわゆるモーションキャプチャー装置を備えている。しかし、本発明の仮想空間体感システムは、このような構成に限定されるものではない。
The virtual space sensation system S includes a so-called motion capture device configured by the
例えば、モーションキャプチャー装置を使用する場合には、上記の構成のものの他、カメラとサーバとが有線で接続されたものを用いてもよいし、標識及びカメラの数が上記構成とは異なる(例えば、それぞれ1つずつ設けられている)ものを用いてもよい。また、モーションキャプチャー装置に代わり、プレイヤーの座標のみを検出する装置を用いてもよい。 For example, when a motion capture device is used, in addition to the above-described configuration, a camera and a server in which a camera and a server are connected by wire may be used, and the numbers of signs and cameras are different from the above-described configuration (for example, , One for each). Further, instead of the motion capture device, a device that detects only the coordinates of the player may be used.
次に、図2を用いて、サーバ3の構成を詳細に説明する。
Next, the configuration of the
サーバ3は、CPU、RAM、ROM、インターフェース回路等を含む1つ又は複数の電子回路ユニットにより構成されている。サーバ3は、実装されたハードウェア構成又はプログラムにより実現される機能として、図2に示すように、表示画像生成部31と、プレイヤー情報検出部32と、トリガーイベント認識部33と、アバター座標決定部34と、仮想空間画像決定部35と、仮想空間音声決定部36とを備えている。
The
表示画像生成部31は、HMD4のモニタ41を介してプレイヤーPに認識させる画像を生成する。表示画像生成部31は、仮想空間生成部31aと、アバター生成部31bと、移動体生成部31cとを有している。
The display
仮想空間生成部31aは、仮想空間の背景となる画像及び仮想空間に存在するオブジェクトの画像を生成する。
The virtual
アバター生成部31bは、仮想空間に、プレイヤーPの動作に対応して動作するアバターを生成する。アバター生成部31bは、複数のプレイヤーPが存在する場合には、それぞれのプレイヤーPに対応するようにして複数のアバターを生成する。このアバターは、対応するプレイヤーPの現実空間における動作(すなわち、座標の移動及び姿勢の変化)に対応して、仮想空間において動作する。
The
移動体生成部31cは、仮想空間に、現実空間RSには対応する物体が存在せず、仮想空間にアバターと接続可能な移動体を生成する。
The moving
ここで、「移動体」とは、アバターが接続した際に、プレイヤーPの現実の移動とは異なるアバターの移動を、(意識している、意識していないに関わらず)プレイヤーに予測させるものであればよい。例えば、エレベータ等の現実空間で移動に使われるものの他、飛び乗ることが可能な川を流れる丸太、上に立った際に崩れそうな床、ジャンプ台、跳躍を補助する翼等が該当する。 Here, the “moving object” is one that makes the player predict whether or not the avatar moves differently from the actual movement of the player P when the avatar is connected (regardless of whether or not conscious). Should be fine. For example, in addition to those used for movement in a real space such as an elevator, a log flowing through a river that can jump on, a floor that is likely to collapse when standing on it, a jumping stand, a wing to assist jumping, and the like are applicable.
また、ここで、アバターと移動体との「接続」とは、移動体の移動、移動体の形状の変化等がアバターの座標に影響することを、プレイヤーが予測し得る状態になることをいう。例えば、アバターがエレベータに乗り込む、アバターが川を流れる丸太に乗る、アバターが崩れそうな床の上に立つ、ジャンプ台の上に立つ、跳躍を補助する翼をアバターが装着する等が該当する。 Here, the “connection” between the avatar and the moving object means that the player can predict that movement of the moving object, change in the shape of the moving object, etc., will affect the coordinates of the avatar. . For example, the avatar gets into the elevator, the avatar rides on a log flowing through the river, stands on a floor where the avatar is likely to collapse, stands on a jumping stand, and the avatar attaches wings to assist jumping.
プレイヤー情報検出部32には、カメラ2が撮影した標識1を含むプレイヤーPの画像データが入力される。このプレイヤー情報検出部32は、プレイヤー姿勢検出部32aと、プレイヤー座標検出部32bとを有している。
Image data of the player P including the
プレイヤー姿勢検出部32aは、入力されたプレイヤーPの画像データから標識1を抽出し、その抽出結果に基づいて、プレイヤーPの姿勢を検出する。
The player
プレイヤー座標検出部32bは、入力されたプレイヤーPの画像データから標識1を抽出し、その抽出結果に基づいて、プレイヤーPの座標を検出する。
The player coordinate
トリガーイベント認識部33は、プレイヤーPが現実空間において所定の動作を行った際に(すなわち、プレイヤーPに対応するアバターが仮想空間において所定の動作を行った際に)、その動作に基づくトリガーイベントが発生したと認識する。トリガーイベントは、プレイヤーPが所定の座標に移動する、プレイヤーPが所定の姿勢をとる等、プレイヤーPの動作に応じて発生するものであれば、プレイヤーPがその発生を認識していないものであってもよい。 When the player P performs a predetermined operation in the real space (that is, when the avatar corresponding to the player P performs a predetermined operation in the virtual space), the trigger event recognition unit 33 performs a trigger event based on the operation. Recognizes that an error has occurred. The trigger event is an event that occurs in response to the movement of the player P, such as when the player P moves to a predetermined coordinate, or the player P takes a predetermined posture, and the player P does not recognize the occurrence. There may be.
アバター座標決定部34は、プレイヤー座標検出部32bによって検出されたプレイヤーPの現実空間RSにおける座標に基づいて、そのプレイヤーPに対応するアバターの仮想空間における座標を決定する。
The avatar coordinate
また、アバター座標決定部34は、トリガーイベント認識部33がトリガーイベントを認識した際には、認識されたトリガーイベントの種類に応じて、所定期間若しくは所定範囲、又は、所定期間及び所定範囲において、アバターの座標を、プレイヤーの座標とアバターの座標との対応関係にズレを生じさせるように補正する。
In addition, when the trigger event recognition unit 33 recognizes the trigger event, the avatar coordinate
また、ここで、プレイヤーの座標とアバターの座標との対応関係にズレを生じさせる「補正」とは、アバターの座標そのものをプレイヤーの座標の移動に関連させずに移動させることの他、プレイヤーの座標の移動量に対するアバターの座標の移動量を変化させること等をいう。 In addition, here, `` correction '' that causes a deviation in the correspondence between the coordinates of the player and the coordinates of the avatar is not only moving the coordinates of the avatar itself without relating to the movement of the coordinates of the player, but also moving the coordinates of the player. This refers to changing the movement amount of the coordinates of the avatar with respect to the movement amount of the coordinates.
仮想空間画像決定部35は、アバターの座標に基づいて、HMD4のモニタ41を介して、そのアバターに対応するプレイヤーPに認識させる仮想空間の画像を決定する。
The virtual space
ここで、「仮想空間の画像」とは、仮想空間の背景の画像の他、他のアバターの画像、仮想空間にのみ存在するオブジェクトの画像、現実空間に対応して仮想空間に存在するオブジェクトの画像等、プレイヤーが自らに対応するアバターの仮想空間における座標を推認し得る画像をいう。 Here, the “image of the virtual space” includes, in addition to the image of the background of the virtual space, an image of another avatar, an image of an object existing only in the virtual space, and an image of an object existing in the virtual space corresponding to the real space. An image, such as an image, that allows the player to infer the coordinates of the avatar corresponding to the player in the virtual space.
仮想空間音声決定部36は、アバターの座標に基づいて、HMD4のスピーカ42を介して、そのアバターに対応するプレイヤーPに認識させる音声を決定する。
The virtual space
次に、図2〜図16を参照して、仮想空間体感システムSを用いてゲームを行う際に、仮想空間体感システムSの実行する処理について説明する。図3、図5、図9及び図13は、ゲームの各段階において仮想空間体感システムSで行われる処理を示すフローチャートである。ここで、本実施形態において行われるゲームは、二人のプレイヤーが協力して移動し、それぞれのスタート地点からそれぞれのゴール地点を目指すゲームである。 Next, with reference to FIGS. 2 to 16, a process executed by the virtual space sensation system S when playing a game using the virtual space sensation system S will be described. FIGS. 3, 5, 9, and 13 are flowcharts showing the processing performed by the virtual space sensation system S at each stage of the game. Here, the game performed in the present embodiment is a game in which two players move in cooperation and aim at each goal point from each start point.
まず、図2、図3及び図4を参照して、仮想空間体感システムSがゲームのスタート時の段階及びトリガーイベントが認識されていない段階で実行する処理について説明する。 First, with reference to FIG. 2, FIG. 3, and FIG. 4, a process executed by the virtual space sensation system S at a stage at the start of a game and at a stage where a trigger event is not recognized will be described.
ゲームの開始を指示する信号を認識したときには、まず、サーバ3の表示画像生成部31が、仮想空間VS、第1アバターA1及び第2アバターA2、並びに、移動体を生成する(図3/STEP01)。
When the signal instructing the start of the game is recognized, first, the display
具体的には、表示画像生成部31の仮想空間生成部31aが、仮想空間VS及び仮想空間VSに存在する各種オブジェクトを生成する。表示画像生成部31のアバター生成部31bが、第1プレイヤーP1(第1のプレイヤー)に対応する第1アバターA1(第1のアバター)及び第2プレイヤーP2(第2のプレイヤー)に対応する第2アバターA2(第2のアバター)を生成する。表示画像生成部31の移動体生成部31cが、後述するエレベータVS1等の移動体を生成する。
Specifically, the virtual
このSTEP01の処理により生成された仮想空間VSには、図4Bに示すように、第1アバターA1及び第2アバターA2、移動体であるエレベータVS1、床VS2及びジャンプ台VS3の他、現実空間RSに設置されているホワイトボードRS1(図4A参照)に対応する位置に生成されたボタンVS4等のトリガーイベントに関連するオブジェクトが設置されている。 As shown in FIG. 4B, the virtual space VS generated by the processing of STEP01 includes a first avatar A1 and a second avatar A2, an elevator VS1, a floor VS2, a jump VS3, and a jump stand VS3, as well as a real space RS. The object related to the trigger event, such as the button VS4 generated at the position corresponding to the whiteboard RS1 (see FIG. 4A) installed at, is installed.
次に、サーバ3のプレイヤー情報検出部32が、カメラ2によって撮影された画像データを取得し、その画像データに基づいて、第1プレイヤーP1及び第2プレイヤーP2(以下、総称する場合は「プレイヤーP」という。)の現実空間RSにおける座標及び姿勢(図4A参照)を検出する(図3/STEP02)。
Next, the player
次に、サーバ3のアバター座標決定部34が、プレイヤー情報検出部32が検出した第1プレイヤーP1の現実空間RSにおける座標に基づいて、第1アバターA1の仮想空間VSにおける座標を決定し、第2プレイヤーP2の現実空間RSにおける座標に基づいて、第2アバターA2の仮想空間VSにおける座標を決定する(図3/STEP03)。
Next, the avatar coordinate
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36が、プレイヤーPに認識させる画像及び音声を、第1アバターA1及び第2アバターA2の仮想空間VSにおける座標及び姿勢に基づいて決定する(図3/STEP04)。
Next, the virtual space
次に、プレイヤーPの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図3/STEP05)。
Next, the
次に、サーバ3のプレイヤー情報検出部32が、第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が検出されたか否かを判定する(図3/STEP06)。
Next, the player
第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が検出された場合(STEP06でYESの場合)には、STEP03に戻り、再度、STEP03以降の処理を実行する。 When the movement of the coordinates or the change in the posture of the first player P1 or the second player P2 in the real space RS is detected (YES in STEP06), the process returns to STEP03, and the processes after STEP03 are executed again.
第1プレイヤーP1又は第2プレイヤーP2の現実空間RSにおける座標の移動又は姿勢の変化が検出されなかった場合(STEP06でNOの場合)には、サーバ3が、ゲームの終了を指示する信号を認識したか否かを判定する(図3/STEP07)。
If the movement of the coordinates or the change in the posture of the first player P1 or the second player P2 in the real space RS is not detected (NO in STEP06), the
ゲームの終了を指示する信号を認識できなかった場合(STEP07でNOの場合)には、STEP06に戻り、再度、STEP06以降の処理を実行する。ゲームの終了を指示する信号を認識した場合(STEP07でYESの場合)には、仮想空間体感システムSは、今回の処理を終了する。 If the signal instructing the end of the game has not been recognized (NO in STEP07), the process returns to STEP06, and the processing after STEP06 is executed again. If the signal instructing the end of the game is recognized (YES in STEP07), the virtual space sensation system S ends the current process.
以上の処理により、ゲームが開始された後には、仮想空間VSに、第1プレイヤーP1に対応する第1アバターA1及び第2プレイヤーP2に対応する第2アバターA2と、移動体であるエレベータVS1、床VS2及びジャンプ台VS3を含む複数のオブジェクトが設置される。 With the above processing, after the game is started, the first avatar A1 corresponding to the first player P1, the second avatar A2 corresponding to the second player P2, and the elevator VS1, which is a moving object, are placed in the virtual space VS. A plurality of objects including a floor VS2 and a jump platform VS3 are installed.
そして、第1プレイヤーP1及び第2プレイヤーP2は、それぞれが装着したHMD4に表示される画像及び発生される音声によって、それぞれに対応する第1アバターA1及び第2アバターA2を介して、自身が仮想空間VSに存在し、自由に動作することができると認識するようになる。
Then, the first player P1 and the second player P2 are themselves virtual via the first avatar A1 and the second avatar A2 respectively corresponding to the image displayed on the
次に、図2、図5〜図8を参照して、仮想空間体感システムSがゲームの第1段階で実行する処理について説明する。この第1段階では、仮想空間VSの状態が図6Bに示す状態となること(すなわち、第1アバターA1が、エレベータVS1のマークVS1a上に移動すること)がトリガーイベントの発生に該当する。 Next, with reference to FIG. 2, FIG. 5 to FIG. 8, the processing executed by the virtual space sensation system S in the first stage of the game will be described. In the first stage, the state of the virtual space VS becoming the state shown in FIG. 6B (that is, the movement of the first avatar A1 on the mark VS1a of the elevator VS1) corresponds to the occurrence of the trigger event.
この第1段階においては、まず、サーバ3のトリガーイベント認識部33が、第1プレイヤーP1の動作に基づくトリガーイベントの発生を認識したか否かを判定する(図5/STEP11)。
In the first stage, first, it is determined whether or not the trigger event recognition unit 33 of the
具体的には、トリガーイベント認識部33は、仮想空間VSで、第1プレイヤーP1に対応する第1アバターA1がエレベータVS1のマークVS1a上に移動するように(図6B参照)、現実空間RSで、第1プレイヤーP1がY軸方向に移動したか否か(図6A参照)を判定する。 Specifically, the trigger event recognition unit 33 uses the virtual space VS to move the first avatar A1 corresponding to the first player P1 over the mark VS1a of the elevator VS1 (see FIG. 6B). It is determined whether the first player P1 has moved in the Y-axis direction (see FIG. 6A).
そして、第1プレイヤーP1の座標が所定の位置に位置したときには、トリガーイベント認識部33が、トリガーイベントが発生したと認識する。 Then, when the coordinates of the first player P1 are located at the predetermined positions, the trigger event recognition unit 33 recognizes that a trigger event has occurred.
このとき、エレベータVS1は移動体であるので、第1プレイヤーP1及び第2プレイヤーP2は、第1プレイヤーに対応する第1アバターA1が移動体と接続したと認識することになる。 At this time, since the elevator VS1 is a moving object, the first player P1 and the second player P2 recognize that the first avatar A1 corresponding to the first player has been connected to the moving object.
トリガーイベントの発生が認識された場合(STEP11でYESの場合)には、サーバ3のアバター座標決定部34が、移動体であるエレベータVS1の移動に伴って、エレベータVS1に乗っている第1アバターA1の座標を移動する(図5/STEP12)。
When the occurrence of the trigger event is recognized (YES in STEP11), the avatar coordinate
具体的には、アバター座標決定部34が、トリガーイベントの発生をトリガーとして、アバター座標決定部34が、移動体であるエレベータVS1の移動に伴って、第1アバターA1の座標を所定方向に所定量移動させる。
Specifically, the avatar coordinate
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、移動後の第1アバターA1の座標に基づいて、プレイヤーPに認識させる仮想空間の画像及び音声を決定する(図5/STEP13)。
Next, the virtual space
次に、プレイヤーPの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図5/STEP14)。
Next, the
STEP14の処理を実行した後、又は、トリガーイベントの発生が認識されなかった場合(STEP11でNOの場合)には、仮想空間体感システムSは、今回の処理を終了する。 After executing the processing in STEP 14 or when the occurrence of the trigger event is not recognized (NO in STEP 11), the virtual space sensation system S ends the current processing.
上記のSTEP12〜STEP14の処理中、現実空間RSでは、第1アバターA1に対応する第1プレイヤーP1の座標は、第1段階開始時(図6A)、第1段階進行時(図7A)及び第1段階終了時(図8A)において、移動していない。 During the processing in STEPs 12 to 14, in the real space RS, the coordinates of the first player P1 corresponding to the first avatar A1 are at the start of the first stage (FIG. 6A), at the time of the first stage progress (FIG. 7A), and at the first stage. At the end of one stage (FIG. 8A), it has not moved.
一方、仮想空間VSでは、第1プレイヤーP1に対応する第1アバターA1の座標は、第1段階開始時(図6B)、第1段階進行時(図7B)及び第1段階終了時(図8B)において、移動体であるエレベータVS1の移動に伴って、X軸方向において第2アバターA2から離れる方向に移動するとともに、Z軸方向において上方向に移動する。ここで、第1アバターA1の座標の移動速度は、X軸方向における移動速度よりもZ軸方向における移動速度の方が遅くなっている。 On the other hand, in the virtual space VS, the coordinates of the first avatar A1 corresponding to the first player P1 are at the start of the first stage (FIG. 6B), when the first stage is progressing (FIG. 7B), and at the end of the first stage (FIG. 8B). In), along with the movement of the elevator VS1, which is a moving body, it moves in a direction away from the second avatar A2 in the X-axis direction and moves upward in the Z-axis direction. Here, the moving speed of the coordinates of the first avatar A1 is slower in the Z-axis direction than in the X-axis direction.
すなわち、STEP12〜STEP14の処理によって、第1アバターA1の座標は第1プレイヤーP1の座標の移動とは独立して移動し、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係にズレが生じることになる。 That is, by the processing of STEP12 to STEP14, the coordinates of the first avatar A1 move independently of the movement of the coordinates of the first player P1, and the coordinates of the first player P1 in the real space RS and the virtual space of the first avatar A1. A deviation occurs in the correspondence relationship with the coordinates in the VS.
そして、その対応関係のズレに応じて、プレイヤーPの認識している仮想空間VSの画像が変化する。 Then, the image of the virtual space VS recognized by the player P changes according to the shift of the correspondence.
具体的には、第1プレイヤーP1の認識する仮想空間VSの画像では、第2アバターA2の画像は、第1アバターA1と第2アバターA2の相対座標の変化に基づいて、その大きさ、角度、姿勢等が変化する。また、第2アバターA2以外の画像は、第1アバターA1の座標の移動に基づいて、その大きさ、角度等が変化する。 Specifically, in the image of the virtual space VS recognized by the first player P1, the image of the second avatar A2 has a size and an angle based on a change in the relative coordinates of the first avatar A1 and the second avatar A2. , Posture and the like change. The size, angle, and the like of the images other than the second avatar A2 change based on the movement of the coordinates of the first avatar A1.
また、第2プレイヤーP2の認識する仮想空間VSの画像では、移動体であるエレベータVS1の画像は、エレベータVS1の移動に基づいて、その大きさ、角度等が変化する。また、第1アバターA1の画像は、エレベータVS1の移動に伴う第1アバターA1と第2アバターA2の相対座標の変化基づいて、その大きさ、角度、姿勢等が変化する。また、エレベータVS1及び第1アバターA1以外の画像は変化しない。 In the image of the virtual space VS recognized by the second player P2, the size, angle, and the like of the image of the elevator VS1, which is a moving object, change based on the movement of the elevator VS1. The size, angle, posture, and the like of the image of the first avatar A1 change based on the change in the relative coordinates of the first avatar A1 and the second avatar A2 accompanying the movement of the elevator VS1. In addition, images other than the elevator VS1 and the first avatar A1 do not change.
また、仮想空間VSの音声(例えば、他のプレイヤーの声に基づいて決定されるアバターの声や、移動体から発生する音)も、仮想空間VSの画像と同様に、第1アバターA1がエレベータVS1とともに移動に応じて変化する。 Also, the voice of the virtual space VS (for example, the voice of the avatar determined based on the voice of another player or the sound generated from the moving object) is also transmitted to the first avatar A1 by the elevator in the same manner as the image of the virtual space VS. It changes according to the movement together with VS1.
そして、プレイヤーPは、仮想空間VSの画像及び音声の変化を介して、その対応関係のズレを認識することによって、現実空間RSよりも拡張された仮想空間VSを認識する。具体的には、プレイヤーPは、第1アバターA1がX軸方向及びZ軸方向に移動したことによって、第1アバターA1がそのように移動できるほど、仮想空間VSがX軸方向及びZ軸方向に現実空間RSよりも拡張されていると認識する。 Then, the player P recognizes the virtual space VS which is extended more than the real space RS by recognizing the deviation of the correspondence through the change of the image and the sound of the virtual space VS. More specifically, the player P moves the virtual space VS in the X-axis direction and the Z-axis direction as the first avatar A1 moves in the X-axis direction and the Z-axis direction as the first avatar A1 moves in the X-axis direction and the Z-axis direction. Is recognized as being extended beyond the real space RS.
また、第1段階におけるトリガーイベントは、第1アバターA1と移動体であるエレベータVS1に乗りこんだ(接続した)状態で、第1アバターA1がマークVS1aの上に立つように第1プレイヤーP1が移動することとなっている。 Further, in the trigger event in the first stage, the first player P1 moves so that the first avatar A1 stands on the mark VS1a in a state where the first avatar A1 and the elevator VS1 as the moving body are connected (connected). It is supposed to.
すなわち、対応関係にズレを生じさせるための第1アバターA1の座標の移動は、移動体であるエレベータVS1の移動が第1アバターA1の座標に影響することを、プレイヤーPが予測し得る状態で発生する。 That is, the movement of the coordinates of the first avatar A1 for causing a shift in the correspondence relationship is performed in a state in which the player P can predict that the movement of the elevator VS1, which is a moving object, affects the coordinates of the first avatar A1. Occur.
この予測によって、プレイヤーPは、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係のズレを違和感なく受け入れることができる。 With this prediction, the player P can accept the deviation of the correspondence between the coordinates of the first player P1 in the real space RS and the coordinates of the first avatar A1 in the virtual space VS without any discomfort.
ところで、上記したように、エレベータVS1の移動に伴って生じる第1アバターA1の座標の移動速度は、X軸方向における移動速度よりもZ軸方向における移動速度の方が遅くなっている。 By the way, as described above, the moving speed of the coordinates of the first avatar A1 caused by the movement of the elevator VS1 is slower in the Z-axis direction than in the X-axis direction.
これにより、対応関係のズレは、X軸方向において大きく、Z軸方向において小さくなっている。その結果、プレイヤーPは、現実空間RSに対して、X軸方向において、第2アバターA2から第1アバターA1が離れる方向に大きく拡張し、Z軸方向において、X軸方向における拡張の度合いよりも小さく拡張した仮想空間VSを認識する。 As a result, the deviation of the correspondence is large in the X-axis direction and small in the Z-axis direction. As a result, the player P greatly expands in the X-axis direction in the direction away from the second avatar A2 with respect to the real space RS, and in the Z-axis direction, the degree of expansion in the X-axis direction is larger than that in the X-axis direction. Recognize the virtual space VS that has been expanded to a small size.
また、対応関係にズレを生じさせるための第1アバターA1の座標のX方向における移動とZ軸方向における移動は、同時に行われている。これにより、対応関係にズレを生じさせる過程の時間(すなわち、プレイヤーPが違和感を覚えやすい時間)が集中している。その結果、プレイヤーPは、頻繁に違和感を覚えることがなくなっている。 Further, the movement of the coordinates of the first avatar A1 in the X direction and the movement in the Z axis direction for causing a shift in the correspondence are performed simultaneously. As a result, the time during the process of causing a shift in the correspondence (that is, the time during which the player P easily feels uncomfortable) is concentrated. As a result, the player P does not often feel uncomfortable.
次に、図2、図9〜図12を参照して、仮想空間体感システムSがゲームの第2段階で実行する処理について説明する。この第2段階では、仮想空間VSの状態が図11Bに示す状態となること(すなわち、第2アバターA2がボタンVS4を押す動作を行うこと)がトリガーイベントの発生に該当する。 Next, with reference to FIG. 2 and FIGS. 9 to 12, a process executed by the virtual space sensation system S in the second stage of the game will be described. In the second stage, the state of the virtual space VS becoming the state shown in FIG. 11B (that is, the second avatar A2 performs the operation of pressing the button VS4) corresponds to the generation of the trigger event.
この第2段階においては、まず、サーバ3のアバター座標決定部34が、第1アバターA1が移動体に接続したか否かを判定する(図9/STEP21)。
In the second stage, first, the avatar coordinate
具体的には、アバター座標決定部34が、仮想空間VSで、第1プレイヤーP1に対応する第1アバターA1の座標が移動体である崩れそうな床VS2の上に移動するように(図10B参照)、現実空間RSで、第1プレイヤーP1の座標がY軸方向に移動したか否か(図10A参照)を判定する。
Specifically, the avatar coordinate
第2段階では、床VS2は移動体であるので、第1プレイヤーP1及び第2プレイヤーP2は、第1アバターA1が床VS2の上に移動したことを認識することによって、第1アバターA1が移動体と接続したと認識することになる。 In the second stage, since the floor VS2 is a moving body, the first player P1 and the second player P2 move the first avatar A1 by recognizing that the first avatar A1 has moved onto the floor VS2. You will recognize that you are connected to your body.
このSTEP21の判定は、第1アバターA1が移動体に接続した(床VS2の上に移動した)と判定されるまで(STEP21でNOとなるたびに)、所定の周期で繰り返される。 The determination in STEP 21 is repeated at a predetermined cycle until it is determined that the first avatar A1 has connected to the moving object (moved on the floor VS2) (every time a negative determination is made in STEP 21).
第1アバターA1が移動体に接続した場合(STEP21でYESの場合)には、サーバ3のトリガーイベント認識部33が、第2プレイヤーP2の動作に基づくトリガーイベントの発生を認識したか否かを判定する(図9/STEP22)。
When the first avatar A1 is connected to the moving body (in the case of YES in STEP21), it is determined whether or not the trigger event recognition unit 33 of the
具体的には、トリガーイベント認識部33は、仮想空間VSで、第2プレイヤーP2に対応する第2アバターA2がボタンVS4近傍の位置でそのボタンVS4に触れる姿勢となるように(図10B参照)、現実空間RSで、第2プレイヤーP2がY軸方向に移動して所定の姿勢となったか否か(図10A参照)を判定する。 Specifically, the trigger event recognition unit 33 causes the second avatar A2 corresponding to the second player P2 to take a posture in which the second avatar A2 corresponding to the second player P2 touches the button VS4 at a position near the button VS4 in the virtual space VS (see FIG. 10B). Then, it is determined whether or not the second player P2 has moved in the Y-axis direction to a predetermined posture in the physical space RS (see FIG. 10A).
そして、第2プレイヤーP2の座標が所定の位置まで移動して、第2プレイヤーP2の姿勢が所定の姿勢となったときには、トリガーイベント認識部33は、第2プレイヤーP2の動作に基づいたトリガーイベントが発生したと認識する。 Then, when the coordinates of the second player P2 move to the predetermined position and the posture of the second player P2 becomes the predetermined posture, the trigger event recognition unit 33 performs the trigger event based on the operation of the second player P2. Recognizes that an error has occurred.
トリガーイベントの発生が認識された場合(STEP22でYESの場合)には、サーバ3のアバター座標決定部34が、床VS2の崩落(すなわち、移動体の移動)に伴って、床VS2に立っていた第1アバターA1の座標を移動する(図9/STEP23)。
When the occurrence of the trigger event is recognized (YES in STEP 22), the avatar coordinate
具体的には、アバター座標決定部34が、第2プレイヤーP2の動作に基づいたトリガーイベントの発生をトリガーとして、第1アバターA1の座標のみを所定方向に所定量移動させる。
Specifically, the avatar coordinate
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、移動後の第1アバターA1の座標に基づいて、プレイヤーPに認識させる仮想空間の画像及び音声を決定する(図9/STEP24)。
Next, the virtual space
次に、プレイヤーPの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図9/STEP25)。
Next, the
STEP25の処理を実行した後、又は、トリガーイベントの発生が認識されなかった場合(STEP22でNOの場合)には、仮想空間体感システムSは、今回の処理を終了する。 After executing the processing of STEP 25, or when the occurrence of the trigger event is not recognized (NO in STEP 22), the virtual space sensation system S ends the current processing.
上記のSTEP23〜STEP25の処理中、現実空間RSでは、第1アバターA1に対応する第1プレイヤーP1の座標は、第2段階開始時(図10A)、第2段階進行時(図11A)及び第2段階終了時(図12A)において、移動していない。 During the processing in STEP23 to STEP25, in the physical space RS, the coordinates of the first player P1 corresponding to the first avatar A1 are at the start of the second stage (FIG. 10A), at the time of progressing the second stage (FIG. 11A), and At the end of the two stages (FIG. 12A), it has not moved.
一方、仮想空間VSでは、第1プレイヤーP1に対応する第1アバターA1の座標は、第2段階開始時(図10B)、第2段階進行時(図11B)及び第2段階終了時(図12B)において、移動体である床VS2の崩落に伴って、Z軸方向において下方向に移動する。 On the other hand, in the virtual space VS, the coordinates of the first avatar A1 corresponding to the first player P1 are at the start of the second stage (FIG. 10B), when the second stage is advanced (FIG. 11B), and at the end of the second stage (FIG. 12B). ), It moves downward in the Z-axis direction along with the collapse of the floor VS2 that is the moving body.
すなわち、STEP23〜STEP25の処理によって、第1アバターA1の座標は第1プレイヤーP1の座標の移動とは独立して移動し、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係にズレが生じることになる。 That is, by the processing of STEP23 to STEP25, the coordinates of the first avatar A1 move independently of the movement of the coordinates of the first player P1, and the coordinates of the first player P1 in the real space RS and the virtual space of the first avatar A1. A deviation occurs in the correspondence relationship with the coordinates in the VS.
このとき、第1段階において対応関係にズレが生じた際の処理(STEP12〜STEP14)と同様に、プレイヤーPの認識している仮想空間VSの画像が変化する。 At this time, the image of the virtual space VS recognized by the player P changes in the same manner as in the process (STEP 12 to STEP 14) when the correspondence has shifted in the first stage.
そして、プレイヤーPは、仮想空間VSの画像及び音声の変化を介して、その対応関係のズレを認識することによって、仮想空間VSは現実空間RSよりも拡張されていると認識する。具体的には、プレイヤーPは、第1アバターA1がZ軸方向下向きに移動したことによって、第1アバターA1がそのように移動できるほど、仮想空間VSがZ軸方向下向きに現実空間RSよりも拡張されていると認識する。 Then, the player P recognizes that the virtual space VS is extended more than the real space RS by recognizing a shift in the correspondence between the images and sounds in the virtual space VS through changes. Specifically, the player P moves the virtual space VS downward in the Z-axis direction more than the real space RS as the first avatar A1 can move in such a manner as the first avatar A1 moves downward in the Z-axis direction. Recognize that it has been extended.
また、第2段階のトリガーイベント(第2アバターA2がボタンVS4を押す動作。STEP22の処理)は、第1アバターA1が移動体である崩れそうな床VS2の上に立った(接続した)状態(STEP21の処理)を前提としている。 The second-stage trigger event (the operation of the second avatar A2 pressing the button VS4; the processing in STEP22) is a state in which the first avatar A1 is standing (connected) on the collapsed floor VS2, which is a moving object. (The processing of STEP 21).
すなわち、対応関係にズレを生じさせるための第1アバターA1の座標の移動は、移動体である床VS2bの崩落(変化)が第1アバターA1の座標に影響することを、プレイヤーPが予測し得る状態で発生する。 In other words, the player P predicts that the movement of the coordinates of the first avatar A1 for causing a shift in the correspondence will cause the collapse (change) of the floor VS2b, which is the moving body, to affect the coordinates of the first avatar A1. Occurs in a gained state.
この予測によって、プレイヤーPは、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係のズレを違和感なく受け入れることができる。 With this prediction, the player P can accept the deviation of the correspondence between the coordinates of the first player P1 in the real space RS and the coordinates of the first avatar A1 in the virtual space VS without any discomfort.
ところで、第2段階におけるトリガーイベントは、移動する第1アバターA1が床VS2の上に移動したことではなく、第2アバターA2がボタンVS4を押す動作を行うこととなっている。すなわち、対応関係にズレを生じさせるために座標が移動するアバターと、トリガーイベントを発生させるアバターとが一致していない。 By the way, the trigger event in the second stage is not that the moving first avatar A1 has moved on the floor VS2, but that the second avatar A2 performs an operation of pressing the button VS4. That is, the avatar whose coordinates move to cause a shift in the correspondence does not match the avatar that generates the trigger event.
しかし、そのように一致していない場合であっても、第1プレイヤーP1及び第2プレイヤーP2のいずれにも、現実空間RSよりも拡張された仮想空間VSを認識させることができる。 However, even in such a case where they do not match, both the first player P1 and the second player P2 can recognize the virtual space VS extended more than the real space RS.
次に、図2、図13〜図16を参照して、仮想空間体感システムSがゲームの第3段階で実行する処理について説明する。この第3段階では、仮想空間VSの状態が図14Bに示す状態となること(すなわち、第1アバターA1が、ジャンプ台VS3の上に移動すること)がトリガーイベントの発生に該当する。 Next, with reference to FIG. 2 and FIGS. 13 to 16, a process executed by the virtual space sensation system S in the third stage of the game will be described. In the third stage, the state of the virtual space VS becoming the state shown in FIG. 14B (that is, the movement of the first avatar A1 on the jump platform VS3) corresponds to the generation of the trigger event.
この第3段階においては、まず、サーバ3のトリガーイベント認識部33が、第1プレイヤーP1の動作に基づくトリガーイベントの発生を認識したか否かを判定する(図13/STEP31)。
In the third stage, first, it is determined whether or not the trigger event recognition unit 33 of the
具体的には、トリガーイベント認識部33は、仮想空間VSで、第1プレイヤーP1に対応する第1アバターA1がジャンプ台VS3の上に移動するように(図14B参照)、現実空間RSで、第1プレイヤーP1がY軸方向に移動したか否か(図14A参照)を判定する。 Specifically, the trigger event recognition unit 33 determines whether the first avatar A1 corresponding to the first player P1 moves on the jumping platform VS3 in the virtual space VS (see FIG. 14B). It is determined whether the first player P1 has moved in the Y-axis direction (see FIG. 14A).
そして、第1プレイヤーP1の座標が所定の位置に位置したときには、トリガーイベント認識部33が、トリガーイベントが発生したと認識する。 Then, when the coordinates of the first player P1 are located at the predetermined positions, the trigger event recognition unit 33 recognizes that a trigger event has occurred.
このとき、ジャンプ台VS3は移動体であるので、第1プレイヤーP1及び第2プレイヤーP2は、第1プレイヤーに対応する第1アバターA1が移動体と接続したと認識することになる。 At this time, since the jump base VS3 is a moving body, the first player P1 and the second player P2 recognize that the first avatar A1 corresponding to the first player has been connected to the moving body.
トリガーイベントの発生が認識された場合(STEP31でYESの場合)には、サーバ3のアバター座標決定部34が、移動体による移動の対象となる第1アバターA1の座標の所定方向の移動速度を、所定範囲において変更する(図13/STEP32)。
When the occurrence of the trigger event is recognized (YES in STEP31), the avatar coordinate
具体的には、アバター座標決定部34が、第1プレイヤーP1の座標の移動速度に対する第1アバターA1の座標の移動速度を、ジャンプ台VS3の上方となる範囲のみにおいて、Z軸方向上向きのみ大きくなるように変更する。
Specifically, the avatar coordinate
次に、第1プレイヤーP1の座標の移動に伴って、第1アバターA1の座標を移動させる(図13/STEP33)。 Next, with the movement of the coordinates of the first player P1, the coordinates of the first avatar A1 are moved (FIG. 13 / STEP 33).
次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、移動後の第1アバターA1の座標に基づいて、プレイヤーPに認識させる仮想空間の画像及び音声を決定する(図13/STEP34)。
Next, the virtual space
次に、プレイヤーPの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図13/STEP35)。
Next, the
STEP35の処理を実行した後、又は、トリガーイベントの発生が認識されなかった場合(STEP31でNOの場合)には、仮想空間体感システムSは、今回の処理を終了する。
After executing the processing of
上記のSTEP32〜STEP35の処理中、現実空間RSでは、第1アバターA1に対応する第1プレイヤーP1の座標は、第3段階開始時(図14A)から第3段階進行時(図15A)において、Y軸方向前向き且つZ軸方向上向きに移動し、第3段階進行時(図15A)から第3段階終了時(図16A)において、Y軸方向前向き且つZ軸方向下向きに移動する。 During the processing in STEP32 to STEP35 described above, in the physical space RS, the coordinates of the first player P1 corresponding to the first avatar A1 are determined from the start of the third stage (FIG. 14A) to the progress of the third stage (FIG. 15A). It moves forward in the Y-axis direction and upward in the Z-axis direction, and moves forward in the Y-axis direction and downward in the Z-axis direction from the time when the third step is advanced (FIG. 15A) to the time when the third step is finished (FIG. 16A).
一方、仮想空間VSでは、第1プレイヤーP1に対応する第1アバターA1の座標も、第3段階開始時(図14B)から第3段階進行時(図15B)において、Y軸方向前向き且つZ軸方向上向きに移動し、第3段階進行時(図15B)から第3段階終了時(図16B)において、Y軸方向前向き且つZ軸方向下向きに移動する。 On the other hand, in the virtual space VS, the coordinates of the first avatar A1 corresponding to the first player P1 also move forward in the Y-axis direction and Z-axis from the start of the third stage (FIG. 14B) to the progress of the third stage (FIG. 15B). In the third stage (FIG. 15B) to the end of the third stage (FIG. 16B), it moves forward in the Y-axis direction and downward in the Z-axis direction.
しかし、第3段階開始時(図14B)から第3段階進行時(図15B)における第1アバターA1の座標は、移動速度を変更させる範囲(STEP32の処理の対象となる範囲)であるジャンプ台VS3の上となる範囲であるので、Z軸方向上向きの移動のみ他の方向の移動よりも、大きくなっている(すなわち、第1プレイヤーP1の座標の移動量に対する第1アバターA1の座標の移動量を変化させている。)。 However, the coordinates of the first avatar A1 from the start of the third stage (FIG. 14B) to the progress of the third stage (FIG. 15B) are the jump table in the range in which the moving speed is changed (the range to be processed in STEP32). Since the range is above VS3, only the upward movement in the Z-axis direction is larger than the movement in the other direction (that is, the movement of the coordinates of the first avatar A1 with respect to the movement amount of the coordinates of the first player P1). The amount is changed.)
その結果、着地した際(第3段階終了時(図16B))には、Z軸方向において、第1プレイヤーP1の現実空間における座標と第1アバターA1の仮想空間における座標との対応関係にズレが生じることになる。具体的には、現実空間RSでは、第1プレイヤーP1は平坦な地面で前方にジャンプしたに過ぎないが、仮想空間VSでは、第1プレイヤーP1に対応する第1アバターA1が、低い位置から高い段差を飛び乗ったことになる。 As a result, at the time of landing (at the end of the third stage (FIG. 16B)), the correspondence between the coordinates of the first player P1 in the real space and the coordinates of the first avatar A1 in the virtual space is displaced in the Z-axis direction. Will occur. Specifically, in the real space RS, the first player P1 merely jumps forward on the flat ground, but in the virtual space VS, the first avatar A1 corresponding to the first player P1 is moved from a low position to a high position. You jumped over the step.
このとき、第1段階及び第2段階において対応関係にズレが生じた際の処理(STEP12〜STEP14、STEP23〜STEP25)と同様に、プレイヤーPの認識している仮想空間VSの画像が変化する。 At this time, the image of the virtual space VS recognized by the player P changes in the same manner as in the processing (STEP12 to STEP14, STEP23 to STEP25) when the correspondence is shifted in the first stage and the second stage.
そして、プレイヤーPは、仮想空間VSの画像及び音声の変化を介して、その対応関係のズレを認識することによって、現実空間RSよりも拡張された仮想空間VSを認識する。具体的には、プレイヤーPは、第1アバターA1が段差を飛び乗るように移動したことによって、所定の範囲(ジャンプ台VS3の存在している範囲)で、仮想空間VSがZ軸方向下向きに現実空間RSよりも拡張されていると認識する。 Then, the player P recognizes the virtual space VS which is extended more than the real space RS by recognizing the deviation of the correspondence through the change of the image and the sound of the virtual space VS. Specifically, the player P moves the virtual space VS downward in the Z-axis direction within a predetermined range (the range where the jump platform VS3 exists) by moving the first avatar A1 so as to jump over the step. It recognizes that it is extended more than the space RS.
また、第3段階におけるトリガーイベントは、第1アバターA1と移動体であるジャンプ台VS3の上に立つように第1プレイヤーP1が移動することとなっている。 Further, the trigger event in the third stage is that the first player P1 moves so as to stand on the first avatar A1 and the jumping stand VS3 as the moving body.
すなわち、対応関係にズレを生じさせるための第1アバターA1の座標の移動は、移動体であるジャンプ台VS3が第1アバターA1の座標に影響することを、プレイヤーPが予測し得る状態で発生する。 In other words, the movement of the coordinates of the first avatar A1 to cause a shift in the correspondence occurs in a state where the player P can predict that the jumping stand VS3, which is a moving object, will affect the coordinates of the first avatar A1. I do.
この予測によって、プレイヤーPは、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係のズレを違和感なく受け入れることができる。 With this prediction, the player P can accept the deviation of the correspondence between the coordinates of the first player P1 in the real space RS and the coordinates of the first avatar A1 in the virtual space VS without any discomfort.
ところで、第3段階においては、対応関係にズレを生じさせるための第1アバターA1の座標の移動は、ジャンプ(すなわち、上昇とその上昇の直後の下降とを含む往復運動)となっている。 By the way, in the third stage, the movement of the coordinates of the first avatar A1 for causing a shift in the correspondence is a jump (that is, a reciprocating movement including an ascent and a descent immediately after the ascent).
これにより、対応関係にズレを生じさせる過程の時間(すなわち、プレイヤーPが違和感を覚えやすい時間)が集中している。その結果、プレイヤーPが、頻繁に違和感を覚えることがなくなっている。また、往復運動を介して対応関係にズレを生じさせているので、プレイヤーPが、ズレが生じている過程を認識しにくくなっている。 As a result, the time during the process of causing a shift in the correspondence (that is, the time during which the player P easily feels uncomfortable) is concentrated. As a result, the player P does not often feel uncomfortable. Further, since the correspondence is shifted through the reciprocating motion, it is difficult for the player P to recognize the process in which the shift has occurred.
以上説明したように、仮想空間体感システムSによれば、第1プレイヤーP1の現実空間RSにおける座標と第1アバターA1の仮想空間VSにおける座標との対応関係をずらすための補正を、第1プレイヤーP1及び第2プレイヤーP2に予測させることができるので、第1プレイヤーP1及び第2プレイヤーP2が覚える違和感を抑えつつ、現実空間よりも拡張された仮想空間をプレイヤーに認識させることができる。 As described above, according to the virtual space sensation system S, the correction for shifting the correspondence between the coordinates of the first player P1 in the real space RS and the coordinates of the first avatar A1 in the virtual space VS is performed by the first player. Since the P1 and the second player P2 can make predictions, it is possible to make the player recognize a virtual space that is larger than the real space while suppressing the sense of incongruity that the first player P1 and the second player P2 learn.
以上、図示の実施形態について説明したが、本発明はこのような形態に限られるものではない。 Although the illustrated embodiment has been described above, the present invention is not limited to such an embodiment.
例えば、上記実施形態においては、現実空間RSに第1プレイヤーP1及び第2プレイヤーP2が存在し、仮想空間VSに第1プレイヤーP1に対応する第1アバターA1及び第2プレイヤーP2に対応する第2アバターA2が存在している。しかし、本発明の仮想空間認識システムは、2人のプレイヤーにのみ対応するものではなく、プレイヤーの数は3人以上でもよい。 For example, in the above embodiment, the first player P1 and the second player P2 exist in the real space RS, and the second avatar A1 and the second avatar A2 corresponding to the second player P2 corresponding to the first player P1 exist in the virtual space VS. Avatar A2 is present. However, the virtual space recognition system of the present invention does not support only two players, and the number of players may be three or more.
また、上記実施形態では、仮想空間音声発生器であるHMD4のスピーカ42で発生する音声は、サーバ3の仮想空間音声決定部36によって決定されている。しかし、本発明の仮想空間体感システムでは、仮想空間音声決定部及び仮想空間音声発生器を省略して、音声についての処理を省略してもよい。
In the above embodiment, the sound generated by the
また、上記実施形態では、仮想空間VSを現実空間RSよりもX軸方向及びZ軸方向において拡張している。しかし、本発明の仮想空間体感システムにおける仮想空間は、このようなものに限定されるものではなく、いずれの方向に対しても、現実空間よりも拡張させてもよい。 Further, in the above embodiment, the virtual space VS is extended in the X-axis direction and the Z-axis direction more than the real space RS. However, the virtual space in the virtual space sensation system of the present invention is not limited to this, and may be expanded in any direction than the real space.
また、上記実施形態では、第1アバターA1の所定位置への移動や第2アバターA2の所定位置における所定動作をトリガーイベントとしている。しかし、本発明の仮想空間体感システムにおけるトリガーイベントは、このようなものに限定されるものではない。 In the above embodiment, the movement of the first avatar A1 to a predetermined position and the predetermined operation of the second avatar A2 at a predetermined position are set as trigger events. However, the trigger event in the virtual space sensation system of the present invention is not limited to such.
例えば、仮想空間で川を流れる丸太にアバターを飛び乗らせて、丸太とともにアバターを移動させて対応関係にズレを生じさせる場合には、川を流れる丸太に飛び乗るという動作が、アバターと移動体の接続及びトリガーイベントの発生を認識させるための動作となる。 For example, in a virtual space, when an avatar jumps over a log flowing through a river and the avatar moves with the log, causing a shift in the correspondence, the operation of jumping over the log flowing through the river is an operation of the avatar and the moving body. This is an operation for recognizing the occurrence of the connection and the trigger event.
また、上記実施形態では、対応関係にズレを生じさせるためのアバターの座標の補正として、第1段階では、所定期間、移動体であるエレベータVS1をX軸方向及びZ軸方向上側に移動させている。また、第2段階では、第1アバターA1がZ軸方向の所定の位置(低くなっている床)に到達するまで、Z軸方向下向きに移動させている。また、第3段階では、第3段階では、移動体であるジャンプ台VS3の上方の範囲のみで移動量の補正を行っている。 In the above-described embodiment, as the correction of the coordinates of the avatar for causing a deviation in the correspondence, in the first stage, the elevator VS1 as the moving body is moved upward in the X-axis direction and the Z-axis direction for a predetermined period. I have. In the second stage, the first avatar A1 is moved downward in the Z-axis direction until it reaches a predetermined position (lower floor) in the Z-axis direction. In the third stage, in the third stage, the movement amount is corrected only in the range above the jump table VS3 which is the moving body.
しかし、本発明の仮想空間体感システムのアバターの座標の補正は、そのような期間及び範囲に限定されるものではなく、プレイヤーの現実空間における座標とアバターの仮想空間における座標との対応関係にズレを生じさせる補正であればよい。そのため、補正の範囲や期間は、仮想空間を拡張する方向及び拡張する量に応じて、適宜変更してよい。 However, the correction of the coordinates of the avatar of the virtual space sensation system of the present invention is not limited to such a period and range, and the correspondence between the coordinates of the player in the real space and the coordinates of the avatar in the virtual space is shifted. The correction may be any correction that causes Therefore, the range and period of the correction may be appropriately changed according to the direction in which the virtual space is expanded and the amount of expansion.
1…標識、2…カメラ、3…サーバ、4…HMD、31…表示画像生成部、31a…仮想空間生成部、31b…アバター生成部、31c…移動体生成部、32…プレイヤー情報検出部、32a…プレイヤー姿勢検出部、32b…プレイヤー座標検出部、33…トリガーイベント認識部、34…アバター座標決定部、35…仮想空間画像決定部、36…仮想空間音声決定部、41…モニタ(仮想空間画像表示器)、42…スピーカ(仮想空間音声発生器)、A1…第1アバター(第1のアバター)、A2…第2アバター(第2のアバター)、P…プレイヤー、P1…第1プレイヤー(第1のプレイヤー)、P2…第2プレイヤー(第2のプレイヤー)、RS…現実空間、RS1…ホワイトボード、S…仮想空間体感システム、VS…仮想空間、VS1…エレベータ(移動体)、VS1a…マーク、VS2…床(移動体)、VS3…ジャンプ台、VS4…ボタン。
REFERENCE SIGNS
Claims (2)
1つの前記仮想空間に、前記第1のプレイヤーの動作に対応して前記仮想空間で動作する第1のアバター、及び、前記第2のプレイヤーの動作に対応して前記仮想空間で動作する第2のアバターを生成するアバター生成部と、
前記第1のプレイヤー及び前記第2のプレイヤーの座標を検出するプレイヤー座標検出部と、
検出された前記第1のプレイヤーの座標に基づいて、前記第1のアバターの座標を決定し、前記第2のプレイヤーの座標に基づいて、前記第2のアバターの座標を決定するアバター座標決定部と、
前記第1のアバターの座標及び前記第2のアバターの座標に基づいて、前記第1のプレイヤー及び前記第2のプレイヤーに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
前記第1のプレイヤー及び前記第2のプレイヤーに、決定された前記仮想空間の画像を認識させる仮想空間画像表示器とを備え、
前記仮想空間画像決定部は、前記第1のプレイヤーの座標と前記第1のアバターの座標との対応関係にズレを生じさせるように前記第1のアバターの座標が補正された場合に、前記第1のアバターと前記第2のアバターとの相対座標の変化に基づいて、前記第2のプレイヤーに認識させる前記第1のアバターの画像を変化させるように構成されていることを特徴とする仮想空間体感システム。 A virtual space generation unit that generates a virtual space corresponding to a real space in which the first player and the second player exist;
In one virtual space, a first avatar that operates in the virtual space in response to the operation of the first player, and a second avatar that operates in the virtual space in response to the operation of the second player An avatar generator that generates an avatar of
A player coordinate detector that detects coordinates of the first player and the second player;
An avatar coordinate determination unit that determines the coordinates of the first avatar based on the detected coordinates of the first player, and determines the coordinates of the second avatar based on the coordinates of the second player. When,
A virtual space image determining unit that determines an image of the virtual space to be recognized by the first player and the second player based on the coordinates of the first avatar and the coordinates of the second avatar;
A virtual space image display for causing the first player and the second player to recognize an image of the determined virtual space,
The virtual space image determining unit, when the coordinates of the first avatar are corrected so as to cause a deviation in the correspondence between the coordinates of the first player and the coordinates of the first avatar, the A virtual space configured to change an image of the first avatar to be recognized by the second player based on a change in relative coordinates between the first avatar and the second avatar. Experience system.
前記第1のアバターの座標及び前記第2のアバターの座標に基づいて、前記第1のプレイヤー及び前記第2のプレイヤーに認識させる音声を決定する仮想空間音声決定部と、
前記第1のプレイヤー及び前記第2のプレイヤーに、決定された音声を認識させる仮想空間音声発生器を備えていることを特徴とする仮想空間体感システム。 The virtual space sensation system according to claim 1,
A virtual space sound determination unit that determines a sound to be recognized by the first player and the second player based on the coordinates of the first avatar and the coordinates of the second avatar;
A virtual space sensation system, comprising: a virtual space sound generator for causing the first player and the second player to recognize the determined sound.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019105099A JP6672508B2 (en) | 2019-06-05 | 2019-06-05 | Virtual space experience system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019105099A JP6672508B2 (en) | 2019-06-05 | 2019-06-05 | Virtual space experience system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016142132A Division JP6538012B2 (en) | 2016-07-20 | 2016-07-20 | Virtual Space Experience System |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019192263A JP2019192263A (en) | 2019-10-31 |
JP6672508B2 true JP6672508B2 (en) | 2020-03-25 |
Family
ID=68390543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019105099A Active JP6672508B2 (en) | 2019-06-05 | 2019-06-05 | Virtual space experience system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6672508B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2920113B2 (en) * | 1995-11-09 | 1999-07-19 | ミツビシ・エレクトリック・インフォメイション・テクノロジー・センター・アメリカ・インコーポレイテッド | Virtual experience environment network system |
JP2002073246A (en) * | 2000-08-25 | 2002-03-12 | Minolta Co Ltd | Video display system |
JP3653463B2 (en) * | 2000-11-09 | 2005-05-25 | 日本電信電話株式会社 | Virtual space sharing system by multiple users |
JP4642538B2 (en) * | 2005-04-20 | 2011-03-02 | キヤノン株式会社 | Image processing method and image processing apparatus |
US20090221368A1 (en) * | 2007-11-28 | 2009-09-03 | Ailive Inc., | Method and system for creating a shared game space for a networked game |
-
2019
- 2019-06-05 JP JP2019105099A patent/JP6672508B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019192263A (en) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6355978B2 (en) | Program and image generation apparatus | |
JP6538013B2 (en) | Virtual Space Experience System | |
US20200179759A1 (en) | Display method, information processing apparatus, and computer-readable recording medium | |
JP6246310B1 (en) | Method, program, and apparatus for providing virtual space | |
WO2018180144A1 (en) | Gait assistance system, gait assistance method, and gait assistance program | |
JP2021081757A (en) | Information processing equipment, information processing methods, and program | |
JP2015231445A (en) | Program and image generating device | |
US11049325B2 (en) | Information processing apparatus, information processing method, and program | |
US11740688B2 (en) | Virtual space experience system | |
JP6470859B1 (en) | Program for reflecting user movement on avatar, information processing apparatus for executing the program, and method for distributing video including avatar | |
WO2018143732A1 (en) | Game control device and virtual reality game system including same | |
US11112857B2 (en) | Information processing apparatus, information processing method, and program | |
KR20140090904A (en) | The billiard coaching system and method using electronic display | |
US20230135138A1 (en) | Vr training system for aircraft, vr training method for aircraft, and vr training program for aircraft | |
JP6538012B2 (en) | Virtual Space Experience System | |
JP6834590B2 (en) | 3D data acquisition device and method | |
JP2017220224A (en) | Method for providing virtual space, program to cause computer to realize the same and system to provide virtual space | |
WO2020049847A1 (en) | Estimation device, learning device, estimation method, learning method, and program | |
JP6672508B2 (en) | Virtual space experience system | |
WO2011158599A1 (en) | Video game device, video game control program, and video game control method | |
JP6765846B2 (en) | Information processing equipment, information processing methods, and programs | |
US11126267B2 (en) | Tactile feedback device and operation method thereof | |
JP7055527B1 (en) | Virtual space experience system | |
JP6933850B1 (en) | Virtual space experience system | |
JP6177965B1 (en) | Method for providing virtual space, program for causing computer to realize the method, and system for providing virtual space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6672508 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |