JP7055527B1 - Virtual space experience system - Google Patents

Virtual space experience system Download PDF

Info

Publication number
JP7055527B1
JP7055527B1 JP2021575439A JP2021575439A JP7055527B1 JP 7055527 B1 JP7055527 B1 JP 7055527B1 JP 2021575439 A JP2021575439 A JP 2021575439A JP 2021575439 A JP2021575439 A JP 2021575439A JP 7055527 B1 JP7055527 B1 JP 7055527B1
Authority
JP
Japan
Prior art keywords
user
avatar
coordinates
virtual space
trigger event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021575439A
Other languages
Japanese (ja)
Other versions
JPWO2022254585A1 (en
JPWO2022254585A5 (en
Inventor
良哉 尾小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of JP7055527B1 publication Critical patent/JP7055527B1/en
Publication of JPWO2022254585A1 publication Critical patent/JPWO2022254585A1/ja
Publication of JPWO2022254585A5 publication Critical patent/JPWO2022254585A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

仮想空間で異なる環境を体感していた複数のユーザが、同様の環境を体感することができるようになる仮想空間体感システムを提供する。VRシステムSのアバター座標決定部34は、トリガーイベントの発生が認識された際に、第1アバターA1及び第2アバターA2の一方の座標を、第1アバターA1及び第2アバターA1の他方の座標に一致する座標又は隣接する座標に移動させる。We provide a virtual space experience system that enables multiple users who have experienced different environments in virtual space to experience similar environments. When the occurrence of the trigger event is recognized, the avatar coordinate determination unit 34 of the VR system S sets the coordinates of one of the first avatar A1 and the second avatar A2 to the coordinates of the other of the first avatar A1 and the second avatar A1. Move to coordinates that match or are adjacent to.

Description

本発明は、画像として表示された仮想空間に、ユーザ自身が存在していると認識させるための仮想空間体感システムに関する。 The present invention relates to a virtual space experience system for recognizing that the user himself / herself exists in the virtual space displayed as an image.

従来、サーバ等で仮想空間を生成し、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)を介して、その仮想空間の画像をユーザに認識させ、ユーザ自身がその仮想空間に存在していると認識させる仮想空間体感システムがある。 Conventionally, a virtual space is generated by a server or the like, an image of the virtual space is recognized by a user via a head-mounted display (hereinafter, may be referred to as “HMD”), and the user himself / herself exists in the virtual space. There is a virtual space experience system that makes you recognize that you are.

この種の仮想空間体感システムは、モーションキャプチャー装置等によってユーザの現実空間における動作(例えば、座標の移動、向きを含む姿勢の変化等)を認識し、その認識した動作に応じて、ユーザに対応するアバターを仮想空間で動作させるものがある(例えば、特許文献1参照)。 This type of virtual space experience system recognizes movements in the user's real space (for example, movement of coordinates, changes in posture including orientation, etc.) by a motion capture device or the like, and responds to the user according to the recognized movements. There is an avatar that operates in a virtual space (see, for example, Patent Document 1).

特許文献1に記載の仮想空間体感システムでは、複数のユーザの各々に対応するようにして、同一の仮想空間に複数のアバターを生成している。そして、この仮想空間体感システムでは、各ユーザに認識させる仮想空間の画像は、自らに対応したアバターの座標に基づいて決定される。すなわち、同時に仮想空間を体感している場合であっても、ユーザごとに視認している仮想空間の画像(ひいては、体感している仮想空間の環境)は異なる。 In the virtual space experience system described in Patent Document 1, a plurality of avatars are generated in the same virtual space so as to correspond to each of a plurality of users. Then, in this virtual space experience system, the image of the virtual space to be recognized by each user is determined based on the coordinates of the avatar corresponding to the user. That is, even when the user is experiencing the virtual space at the same time, the image of the virtual space visually recognized by each user (and by extension, the environment of the virtual space being experienced) is different.

特開2010157461号公報Japanese Unexamined Patent Publication No. 2010157461

ところで、複数のユーザが同時に仮想空間を体感しており、且つ、ユーザごとに体感している仮想空間の環境が異なっている場合、一方のユーザが、自らの体感している環境を、他方のユーザにも体感してほしいと考える場合がある。また逆に、一方のユーザが、他方のユーザが体感している環境を、自らが体感したいと考える場合もある。 By the way, when a plurality of users are experiencing the virtual space at the same time and the environment of the virtual space that each user is experiencing is different, one user can experience the environment of the other. There are times when we want the user to experience it. Conversely, one user may want to experience the environment that the other user is experiencing.

本発明は以上の点に鑑みてなされたものであり、仮想空間で異なる環境を体感していた複数のユーザが、同様の環境を体感することができるようになる仮想空間体感システムを提供することを目的とする。 The present invention has been made in view of the above points, and provides a virtual space experience system that enables a plurality of users who have experienced different environments in virtual space to experience similar environments. With the goal.

第1の発明の仮想空間体感システムは、
第1ユーザ及び第2ユーザが存在する現実空間に対応する仮想空間を生成する仮想空間生成部と、
前記第1ユーザに対応する第1アバター、及び、前記第2ユーザに対応する第2アバターを、前記仮想空間に生成するとともに、前記第1ユーザ及び前記第2ユーザの一方に対応し、前記第1アバター及び前記第2アバターとは独立したアバターであるゴーストを、前記仮想空間に生成するアバター生成部と、
前記現実空間における前記第1ユーザの座標及び前記第2ユーザの座標を認識するユーザ座標認識部と、
前記第1ユーザの座標に基づいて、前記仮想空間における前記第1アバターの座標を決定し、前記第2ユーザの座標に基づいて、前記仮想空間における前記第2アバターの座標を決定するとともに、前記第1ユーザ及び前記第2ユーザの一方に対応する前記第1アバター又は前記第2アバターの座標に所定のズレを生じさせた座標に基づいて、前記ゴーストの座標を決定するアバター座標決定部と、
前記第1アバターの座標及び前記第2アバターの座標に基づいて、前記第1ユーザ及び前記第2ユーザに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
第1トリガーイベントの発生を認識するトリガーイベント認識部と、
前記第1ユーザ及び前記第2ユーザに、前記仮想空間の画像を認識させる仮想空間画像表示器とを備えている仮想空間体感システムにおいて、
前記アバター座標決定部は、前記第1トリガーイベントの発生が認識された際に、前記第1アバター及び前記第2アバターの一方の座標を、前記第1アバター及び前記第2アバターの他方の座標に一致する座標又は隣接する座標に移動させ
前記仮想空間画像決定部は、前記第1ユーザ及び前記第2ユーザの他方に認識させる前記仮想空間の画像に、前記第1ユーザ及び前記第2ユーザの一方に対応している旨を示す情報を付加した前記ゴーストの画像を含ませ、
前記第1トリガーイベントは、前記第1ユーザ及び前記第2ユーザの他方に対応する前記第1アバター又は前記第2アバターが前記ゴーストに対して実行する所定の動作であることを特徴とする。
The virtual space experience system of the first invention is
A virtual space generator that creates a virtual space corresponding to the real space in which the first user and the second user exist, and
The first avatar corresponding to the first user and the second avatar corresponding to the second user are generated in the virtual space, and the first user and the second user are supported by the first user. An avatar generation unit that generates a ghost, which is an avatar independent of one avatar and the second avatar, in the virtual space .
A user coordinate recognition unit that recognizes the coordinates of the first user and the coordinates of the second user in the real space, and
Based on the coordinates of the first user, the coordinates of the first avatar in the virtual space are determined, and the coordinates of the second avatar in the virtual space are determined based on the coordinates of the second user, and the coordinates are determined. An avatar coordinate determination unit that determines the coordinates of the ghost based on the coordinates that cause a predetermined deviation in the coordinates of the first avatar or the second avatar corresponding to one of the first user and the second user .
A virtual space image determination unit that determines an image of the virtual space to be recognized by the first user and the second user based on the coordinates of the first avatar and the coordinates of the second avatar.
A trigger event recognition unit that recognizes the occurrence of the first trigger event,
In a virtual space experience system provided with a virtual space image display that causes the first user and the second user to recognize an image of the virtual space.
When the occurrence of the first trigger event is recognized, the avatar coordinate determination unit changes the coordinates of one of the first avatar and the second avatar to the coordinates of the other of the first avatar and the second avatar. Move to matching coordinates or adjacent coordinates ,
The virtual space image determination unit provides information indicating that the image of the virtual space to be recognized by the other of the first user and the second user corresponds to one of the first user and the second user. Include the added image of the ghost,
The first trigger event is characterized in that the first avatar or the second avatar corresponding to the other of the first user and the second user is a predetermined action to be executed for the ghost .

ここで、「仮想空間の画像」には、仮想空間の背景の画像の他、他のアバターの画像、仮想空間にのみ存在するオブジェクトの画像、現実空間に対応して仮想空間に存在するオブジェクトの画像等が含まれる。 Here, the "image of the virtual space" includes an image of the background of the virtual space, an image of another avatar, an image of an object existing only in the virtual space, and an object existing in the virtual space corresponding to the real space. Images etc. are included.

このように、本第1の発明の仮想空間体感システムでは、第1トリガーイベントの発生が認識された際には、アバター座標決定部は、第1アバター及び第2アバターの一方の座標を、第1アバター及び第2アバターの他方の座標に一致する座標又は隣接する座標に移動させている。 As described above, in the virtual space experience system of the first invention, when the occurrence of the first trigger event is recognized, the avatar coordinate determination unit sets the coordinates of one of the first avatar and the second avatar. It is moved to the coordinates that match or are adjacent to the coordinates of the other of the 1 avatar and the 2nd avatar.

ここで、第1ユーザ及び第2ユーザに認識させる仮想空間の画像は、第1アバター及び第2アバターの座標に基づいて決定される。そのため、アバター同士の座標が一致又は隣接している場合には、それらのアバターに対応する各々のユーザの認識する仮想空間の画像も、一致又は隣接した画像(すなわち、同様の画像)になる。 Here, the image of the virtual space to be recognized by the first user and the second user is determined based on the coordinates of the first avatar and the second avatar. Therefore, when the coordinates of the avatars match or are adjacent to each other, the image of the virtual space recognized by each user corresponding to those avatars is also the same or adjacent image (that is, a similar image).

したがって、本第1の発明の仮想空間体感システムによれば、第1トリガーイベントの発生が認識された際には、各々のユーザの認識する仮想空間の画像も一致又は隣接した画像にすることができるので、それまで仮想空間で異なる環境を体感していた第1ユーザ及び第2ユーザが、ほぼ同じ環境を体感することができるようになる。 Therefore, according to the virtual space experience system of the first invention, when the occurrence of the first trigger event is recognized, the images of the virtual space recognized by each user can be matched or adjacent to each other. Therefore, the first user and the second user who have experienced different environments in the virtual space can experience almost the same environment.

また、本第2の発明の仮想空間体感システムは、
第1ユーザ及び第2ユーザが存在する現実空間に対応する仮想空間を生成する仮想空間生成部と、
前記第1ユーザに対応する第1アバター、及び、前記第2ユーザに対応する第2アバターを、前記仮想空間に生成するとともに、前記第1ユーザ及び前記第2ユーザの一方に対応し、前記第1アバター及び前記第2アバターとは独立したアバターであるゴーストを、前記仮想空間に生成するアバター生成部と、
前記現実空間における前記第1ユーザの座標及び前記第2ユーザの座標を認識するユーザ座標認識部と、
前記第1ユーザの座標に基づいて、前記仮想空間における前記第1アバターの座標を決定し、前記第2ユーザの座標に基づいて、前記仮想空間における前記第2アバターの座標を決定するとともに、前記第1ユーザ及び前記第2ユーザの一方に対応する前記第1アバター又は前記第2アバターの座標に所定のズレを生じさせた座標に基づいて、前記ゴーストの座標を決定するアバター座標決定部と、
前記第1アバターの座標及び前記第2アバターの座標に基づいて、前記第1ユーザ及び前記第2ユーザに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
第1トリガーイベントの発生を認識するトリガーイベント認識部と、
前記第1ユーザ及び前記第2ユーザに、前記仮想空間の画像を認識させる仮想空間画像表示器とを備えている仮想空間体感システムにおいて、
前記仮想空間画像決定部は、前記第1ユーザ及び前記第2ユーザの他方に認識させる前記仮想空間の画像に、前記第1ユーザ及び前記第2ユーザの一方に対応している旨を示す情報を付加した前記ゴーストの画像を含ませ、且つ、前記第1トリガーイベントの発生が認識された際に、前記第1ユーザ及び前記第2ユーザの一方に認識させる前記仮想空間の画像を、前記第1アバター及び前記第2アバターの一方の座標が前記第1アバター及び前記第2アバターの他方の座標に一致する座標又は隣接する座標に移動した場合における画像にし、
前記第1トリガーイベントは、前記第1ユーザ及び前記第2ユーザの他方に対応する前記第1アバター又は前記第2アバターが前記ゴーストに対して実行する所定の動作であることを特徴とする。
Further, the virtual space experience system of the second invention is
A virtual space generator that creates a virtual space corresponding to the real space in which the first user and the second user exist, and
The first avatar corresponding to the first user and the second avatar corresponding to the second user are generated in the virtual space, and the first user and the second user are supported by the first user. An avatar generation unit that generates a ghost, which is an avatar independent of one avatar and the second avatar, in the virtual space .
A user coordinate recognition unit that recognizes the coordinates of the first user and the coordinates of the second user in the real space, and
Based on the coordinates of the first user, the coordinates of the first avatar in the virtual space are determined, and the coordinates of the second avatar in the virtual space are determined based on the coordinates of the second user, and the coordinates are determined. An avatar coordinate determination unit that determines the coordinates of the ghost based on the coordinates that cause a predetermined deviation in the coordinates of the first avatar or the second avatar corresponding to one of the first user and the second user .
A virtual space image determination unit that determines an image of the virtual space to be recognized by the first user and the second user based on the coordinates of the first avatar and the coordinates of the second avatar.
A trigger event recognition unit that recognizes the occurrence of the first trigger event,
In a virtual space experience system provided with a virtual space image display that causes the first user and the second user to recognize an image of the virtual space.
The virtual space image determination unit provides information indicating that the image of the virtual space to be recognized by the other of the first user and the second user corresponds to one of the first user and the second user. The first image of the virtual space including the added image of the ghost and causing one of the first user and the second user to recognize when the occurrence of the first trigger event is recognized. An image is obtained when one of the coordinates of the avatar and the second avatar moves to a coordinate that matches or is adjacent to the other coordinates of the first avatar and the second avatar .
The first trigger event is characterized in that the first avatar or the second avatar corresponding to the other of the first user and the second user is a predetermined action to be executed for the ghost .

このように、本第2の発明の仮想空間体感システムでは、第1トリガーイベントの発生が認識された際には、仮想空間画像決定部は、第1ユーザ及び第2ユーザの一方に認識させる仮想空間の画像を、第1アバター及び第2アバターの一方の座標が第1アバター及び第2アバターの他方の座標に一致する座標又は隣接する座標に移動した場合における画像にしている。 As described above, in the virtual space experience system of the second invention, when the occurrence of the first trigger event is recognized, the virtual space image determination unit makes one of the first user and the second user recognize the virtual. The image of the space is an image when the coordinates of one of the first avatar and the second avatar move to the coordinates corresponding to or adjacent to the coordinates of the other of the first avatar and the second avatar.

すなわち、第1トリガーイベントの発生が認識された際には、一方のユーザに認識させる仮想空間の画像を決定するための基準となる座標を、そのユーザに対応するアバターの座標の位置に関係なく、他方のユーザに対応するアバターの座標に一致する座標又はそれに隣接する座標としている。 That is, when the occurrence of the first trigger event is recognized, the reference coordinates for determining the image of the virtual space to be recognized by one user are set regardless of the position of the coordinates of the avatar corresponding to that user. , Coordinates that match the coordinates of the avatar corresponding to the other user or coordinates that are adjacent to the coordinates.

これにより、第1トリガーイベントの発生が認識された際には、一方のユーザは、他方のユーザとともに、他方のユーザに対応するアバターの座標に一致する座標又は隣接する座標に基づいて決定された仮想空間の画像を認識することになる。 As a result, when the occurrence of the first trigger event is recognized, one user is determined together with the other user based on the coordinates matching the coordinates of the avatar corresponding to the other user or the adjacent coordinates. It will recognize the image in the virtual space.

したがって、本第2の発明の仮想空間体感システムによれば、第1トリガーイベントの発生が認識された後には、一方のユーザは、他方のユーザに対応するアバターの座標に一致する座標又は隣接する座標に基づいて決定された仮想空間の画像を認識することになるので、それまで仮想空間で異なる環境を体感していた第1ユーザ及び第2ユーザが、ほぼ同じ環境を体感することができるようになる。 Therefore, according to the virtual space experience system of the second invention, after the occurrence of the first trigger event is recognized, one user has coordinates matching or adjacent to the coordinates of the avatar corresponding to the other user. Since the image of the virtual space determined based on the coordinates is recognized, the first user and the second user who have experienced different environments in the virtual space can experience almost the same environment. become.

ところで、本発明の仮想空間体感システムにおいては、
前記アバター生成部は、前記第1ユーザ及び前記第2ユーザの一方に対応し、前記第1アバター及び前記第2アバターとは独立したアバターであるゴーストを、前記仮想空間に生成し、
前記アバター座標決定部は、前記第1ユーザ及び前記第2ユーザの一方に対応する前記第1アバター又は前記第2アバターの座標に所定のズレを生じさせた座標に基づいて、前記ゴーストの座標を決定し、
前記仮想空間画像決定部は、前記第1ユーザ及び前記第2ユーザの他方に認識させる前記仮想空間の画像に、前記第1ユーザ及び前記第2ユーザの一方に対応している旨を示す情報を付加した前記ゴーストの画像を含ませ、
前記第1トリガーイベントは、前記第1ユーザ及び前記第2ユーザの他方に対応する前記第1アバター又は前記第2アバターが前記ゴーストに対して実行する所定の動作であるように構成されている
By the way, in the virtual space experience system of the present invention,
The avatar generation unit generates a ghost in the virtual space, which corresponds to one of the first user and the second user and is an avatar independent of the first avatar and the second avatar.
The avatar coordinate determination unit determines the coordinates of the ghost based on the coordinates that cause a predetermined deviation in the coordinates of the first avatar or the second avatar corresponding to one of the first user and the second user. Decide and
The virtual space image determination unit provides information indicating that the image of the virtual space to be recognized by the other of the first user and the second user corresponds to one of the first user and the second user. Include the added image of the ghost,
The first trigger event is configured to be a predetermined action performed by the first avatar or the second avatar corresponding to the other of the first user and the second user on the ghost.

ここで、ユーザに「対応している旨を示す情報」とは、例えば、常時又はユーザの要求に応じて表示されるメッセージといった直接的な情報の他、対応するアバターの形状を半透明にしたものをゴーストの形状として採用することによって示される間接的な情報も含む。 Here, the "information indicating that the user is responding" is, for example, direct information such as a message displayed at all times or in response to the user's request, and the corresponding avatar shape is made translucent. It also includes indirect information presented by adopting things as ghost shapes.

仮想空間にユーザに対応するアバターを生成する場合、ユーザ1人に対して必ずしも1つのアバターのみが生成されるわけではない。そこで、ユーザに対応し、且つ、ユーザに認識させる画像を決定する際の基準となるアバターの他に、ユーザに対応しているが、その基準となるアバターとは独立したアバター(すなわち、その基準とはならないアバター)であるゴーストを生成しても構わない。 When generating an avatar corresponding to a user in a virtual space, it is not always the case that only one avatar is generated for each user. Therefore, in addition to the avatar that corresponds to the user and is the standard for determining the image to be recognized by the user, the avatar that corresponds to the user but is independent of the standard avatar (that is, the standard). You may generate a ghost that is not an avatar).

ここで、本発明の仮想空間体感システムでは、ゴーストに、所定のユーザに対応している旨を示す情報が付加されている。そのため、他のユーザは、そのゴーストがどのユーザに対応するものであるのかを、容易に把握することができるようになっている。 Here, in the virtual space experience system of the present invention, information indicating that a predetermined user is supported is added to the ghost. Therefore, other users can easily grasp which user the ghost corresponds to.

そのうえで、アバターがそのゴーストに対して実行する所定の動作を第1トリガーイベントとして設定すると、アバターに対応するユーザは、その動作を実行した結果、ゴーストに対応するユーザの環境を自らも体感することができることを、直感的に理解することができるようになる。 Then, if a predetermined action that the avatar executes for the ghost is set as the first trigger event, the user corresponding to the avatar can also experience the environment of the user corresponding to the ghost as a result of executing the action. You will be able to intuitively understand what you can do.

ここで、「所定の動作」としては、アバターがゴーストを基準として行う何らかの動作であればよい。例えば、アバターがゴーストに接触するような動作、アバターがゴーストを基準とした所定の範囲内に移動するような動作、アバターが仮想空間に存在するオブジェクトを操作する際に、その対象としてゴーストを選択するような動作(例えば、カメラ型オブジェクトでゴーストを撮影するような動作等)等が挙げられる。 Here, the "predetermined action" may be any action performed by the avatar based on the ghost. For example, when the avatar touches the ghost, the avatar moves within a predetermined range based on the ghost, or when the avatar operates an object existing in the virtual space, the ghost is selected as the target. (For example, an operation such as shooting a ghost with a camera-type object) and the like.

また、本発明の仮想空間体感システムにおいては、ゴーストを生成する構成の場合、
前記トリガーイベント認識部は、第2トリガーイベントの発生を認識し、
前記アバター生成部は、前記第2トリガーイベントの発生が認識された際に、前記第1ユーザに対応する前記ゴーストである第1ゴーストを、前記仮想空間に生成し、
前記アバター座標決定部は、前記第2トリガーイベントの発生が認識された後には、前記第1ユーザの座標に前記所定のズレを生じさせた座標に基づいて、前記第1アバターの座標を決定し、前記第1ユーザの座標に基づいて、前記仮想空間における前記第1ゴーストの座標を決定し、
前記仮想空間画像決定部は、前記第2トリガーイベントの発生が認識された後には、前記第2ユーザに認識させる前記仮想空間の画像に、前記第1ユーザに対応している旨を示す情報を付加した前記第1ゴーストの画像を含ませ、
前記第1トリガーイベントは、前記第2アバターが前記第1ゴーストに対して実行する所定の動作であることが好ましい。
Further, in the virtual space experience system of the present invention, in the case of a configuration that generates a ghost,
The trigger event recognition unit recognizes the occurrence of the second trigger event and recognizes the occurrence of the second trigger event.
When the occurrence of the second trigger event is recognized, the avatar generation unit generates the first ghost, which is the ghost corresponding to the first user, in the virtual space.
After the occurrence of the second trigger event is recognized, the avatar coordinate determination unit determines the coordinates of the first avatar based on the coordinates that cause the predetermined deviation from the coordinates of the first user. , The coordinates of the first ghost in the virtual space are determined based on the coordinates of the first user.
After the occurrence of the second trigger event is recognized, the virtual space image determination unit displays information indicating that the image of the virtual space to be recognized by the second user corresponds to the first user. The added image of the first ghost is included,
The first trigger event is preferably a predetermined action performed by the second avatar with respect to the first ghost.

例えば、第1ユーザと第2ユーザとが現実空間の同一領域内(例えば、同じ部屋)に存在している場合等には、第1アバターの座標を第1ユーザの座標に所定のズレを生じた座標に基づいて決定していると、第2ユーザが、自らに対応する第2アバターを第1アバターと接触しないように移動したとしても、第1アバターに対応する第1ユーザと接触してしまうおそれがある。 For example, when the first user and the second user exist in the same area in the real space (for example, in the same room), the coordinates of the first avatar may deviate from the coordinates of the first user. If the determination is made based on the coordinates, even if the second user moves the second avatar corresponding to the user so as not to contact the first avatar, the second user contacts the first user corresponding to the first avatar. There is a risk that it will end up.

そして、その接触を回避するために、第1ユーザに対応する第1ゴーストの座標を、第1ユーザの座標に基づく座標(すなわち、ズレが生じる前の座標)にするという手法が採用されることがある。これにより、第2アバター(すなわち、第2ユーザ)が、第1ゴーストを回避するように移動するようになるので、第2ユーザが第1ユーザに接触してしまうことが抑制できる。 Then, in order to avoid the contact, a method is adopted in which the coordinates of the first ghost corresponding to the first user are set to the coordinates based on the coordinates of the first user (that is, the coordinates before the deviation occurs). There is. As a result, the second avatar (that is, the second user) moves so as to avoid the first ghost, so that it is possible to prevent the second user from coming into contact with the first user.

そして、そのような手法が採用されている場合には、このように、第1トリガーイベントとして、第2アバターが第1ゴーストに対して実行する動作を採用することが好ましい。 When such a method is adopted, it is preferable to adopt the action executed by the second avatar with respect to the first ghost as the first trigger event in this way.

そのように構成すると、その動作によって、第2ユーザは、第1ユーザと環境を共有する第1トリガーイベントが発生することを、直感的に理解することができる。ひいては、第1トリガーイベントを発生させるために、第2ユーザの仮想空間への没入感が阻害されてしまうことを抑制することができる。 With such a configuration, the operation allows the second user to intuitively understand that the first trigger event that shares the environment with the first user occurs. As a result, since the first trigger event is generated, it is possible to suppress the second user's immersive feeling in the virtual space from being hindered.

また、本発明の仮想空間体感システムにおいては、ゴーストを生成する構成の場合、
前記トリガーイベント認識部は、第2トリガーイベントの発生を認識し、
前記アバター生成部は、前記第2トリガーイベントの発生が認識された際に、前記第2ユーザに対応する前記ゴーストである第2ゴーストを、前記仮想空間に生成し、
前記アバター座標決定部は、前記第2トリガーイベントの発生が認識された後には、前記第1ユーザの座標に前記所定のズレを生じさせた座標に基づいて、前記第1アバターの座標を決定し、前記第2ユーザの座標に前記所定のズレを生じさせた座標に基づいて、前記仮想空間における前記第2ゴーストの座標を決定し、
前記仮想空間画像決定部は、前記第2トリガーイベントの発生が認識された後には、前記第1ユーザに認識させる前記仮想空間の画像に、前記第2ユーザに対応している旨を示す情報を付加した前記第2ゴーストの画像を含ませ、
前記第1トリガーイベントは、前記第1アバターが前記第2ゴーストに対して実行する所定の動作であることが好ましい。
Further, in the virtual space experience system of the present invention, in the case of a configuration that generates a ghost,
The trigger event recognition unit recognizes the occurrence of the second trigger event and recognizes the occurrence of the second trigger event.
When the occurrence of the second trigger event is recognized, the avatar generation unit generates the second ghost, which is the ghost corresponding to the second user, in the virtual space.
After the occurrence of the second trigger event is recognized, the avatar coordinate determination unit determines the coordinates of the first avatar based on the coordinates that cause the predetermined deviation from the coordinates of the first user. , The coordinates of the second ghost in the virtual space are determined based on the coordinates that cause the predetermined deviation from the coordinates of the second user.
After the occurrence of the second trigger event is recognized, the virtual space image determination unit displays information indicating that the image of the virtual space to be recognized by the first user corresponds to the second user. The added image of the second ghost is included,
The first trigger event is preferably a predetermined action performed by the first avatar with respect to the second ghost.

例えば、第1ユーザと第2ユーザとが現実空間の同一領域内(例えば、同じ部屋)に存在している場合等には、第1アバターの座標を第1ユーザの座標に所定のズレを生じた座標に基づいて決定していると、第1ユーザが、自らに対応する第1アバターを第2アバターと接触しないように移動したとしても、第2アバターに対応する第2ユーザと接触してしまうおそれがある。 For example, when the first user and the second user exist in the same area in the real space (for example, in the same room), the coordinates of the first avatar may deviate from the coordinates of the first user. If the determination is made based on the coordinates, even if the first user moves the first avatar corresponding to the user so as not to contact the second avatar, the first user contacts the second user corresponding to the second avatar. There is a risk that it will end up.

そして、その接触を回避するために、第2ユーザに対応する第4ゴーストの座標を、第2アバターの座標に第1アバターと同様のズレを生じさせた座標にするという手法が採用されることがある。これにより、第1アバター(すなわち、第1ユーザ)が、第4ゴーストを回避するように移動するようになるので、第1ユーザが第2ユーザに接触してしまうことが抑制できる。 Then, in order to avoid the contact, a method is adopted in which the coordinates of the fourth ghost corresponding to the second user are set to the coordinates that cause the same deviation as the first avatar in the coordinates of the second avatar. There is. As a result, the first avatar (that is, the first user) moves so as to avoid the fourth ghost, so that it is possible to prevent the first user from coming into contact with the second user.

そのような手法が採用されている場合には、このように、第1トリガーイベントとして、第1アバターが第2ゴーストに対して実行する動作を採用することが好ましい。 When such a method is adopted, it is preferable to adopt the action executed by the first avatar with respect to the second ghost as the first trigger event.

そのように構成すると、その動作によって、第1ユーザは、第2ユーザと環境を共有する第1トリガーイベントが発生することを、直感的に理解することができる。ひいては、第1トリガーイベントを発生させるために、第1ユーザの仮想空間への没入感が阻害されてしまうことを抑制することができる。 With such a configuration, the operation allows the first user to intuitively understand that the first trigger event that shares the environment with the second user occurs. As a result, since the first trigger event is generated, it is possible to suppress the immersive feeling of the first user in the virtual space from being hindered.

第1実施形態に係るVRシステムの概略構成を示す模式図。The schematic diagram which shows the schematic structure of the VR system which concerns on 1st Embodiment. 図1のVRシステムの処理部の構成を示すブロック図。The block diagram which shows the structure of the processing part of the VR system of FIG. 図1のVRシステムが通常の使用状態において実行する処理を示すフローチャート。The flowchart which shows the process which the VR system of FIG. 1 performs in a normal use state. 図1のVRシステムの通常の使用状態における現実空間及び仮想空間の状態を示す模式図。The schematic diagram which shows the state of the real space and the virtual space in the normal use state of the VR system of FIG. 図1のVRシステムが仮想空間を拡張させる際及びそれ以後において実行する処理を示すフローチャート。The flowchart which shows the process to execute when the VR system of FIG. 1 expands a virtual space, and after that. 図1のVRシステムにおいて仮想空間を拡張させる際における現実空間及び仮想空間の状態を示す模式図。The schematic diagram which shows the state of the real space and the virtual space when the virtual space is expanded in the VR system of FIG. 図1のVRシステムにおいて仮想空間を拡張させた後における現実空間及び仮想空間の状態を示す模式図。The schematic diagram which shows the state of the real space and the virtual space after expanding the virtual space in the VR system of FIG. 図1のVRシステムが環境を同期させる際及びそれ以後において実行する第1実施形態における処理を示すフローチャート。The flowchart which shows the process in 1st Embodiment which performs when the VR system of FIG. 1 synchronizes an environment, and after that. 図1のVRシステムが環境を同期させる際における現実空間及び仮想空間の状態を示す模式図。The schematic diagram which shows the state of the real space and the virtual space when the VR system of FIG. 1 synchronizes an environment. 図1のVRシステムが環境を同期させた後における現実空間及び仮想空間の状態を示す模式図。The schematic diagram which shows the state of the real space and the virtual space after the VR system of FIG. 1 synchronizes the environment. 第2実施形態のVRシステムが環境を同期させる際に実行する処理を示すフローチャート。The flowchart which shows the process which the VR system of 2nd Embodiment executes when synchronizing an environment. 図11のVRシステムが環境を同期させる際における現実空間及び仮想空間の状態を示す模式図。The schematic diagram which shows the state of the real space and the virtual space when the VR system of FIG. 11 synchronizes an environment. 図11のVRシステムが環境を同期させた後における現実空間及び仮想空間の状態を示す模式図。The schematic diagram which shows the state of the real space and the virtual space after the VR system of FIG. 11 synchronizes the environment. 図11のVRシステムが環境を同期させる前に、第2ユーザが認識している仮想空間の画像の模式図。FIG. 11 is a schematic diagram of an image of a virtual space recognized by a second user before the VR system of FIG. 11 synchronizes the environment. 図11のVRシステムが環境を同期させた後に、第2ユーザが認識している仮想空間の画像の模式図。FIG. 11 is a schematic diagram of an image of a virtual space recognized by a second user after the VR system of FIG. 11 synchronizes the environment.

[第1実施形態]
以下、図1~図10を参照して、第1実施形態に係る仮想空間体感システムであるVRシステムSについて説明する。
[First Embodiment]
Hereinafter, the VR system S, which is a virtual space experience system according to the first embodiment, will be described with reference to FIGS. 1 to 10.

VRシステムSは、現実空間RSの所定の領域(例えば、1つの部屋)に共に存在する第1ユーザU1及び第2ユーザU2(以下、総称する場合は「ユーザU」という。)に対し、その領域に対応する1つの仮想空間VSに、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2アバターA2を介して、自らが共に存在すると認識させるものである(図4等参照)。 The VR system S refers to the first user U1 and the second user U2 (hereinafter, collectively referred to as "user U") existing together in a predetermined area (for example, one room) of the real space RS. One virtual space VS corresponding to an area is made to recognize that it exists together via the first avatar A1 corresponding to the first user U1 and the second avatar A2 corresponding to the second user U2 (Fig.). See 4th grade).

なお、本実施形態及び後述する第2実施形態では、理解を容易にするために、ユーザは2人としている。しかし、本発明の仮想空間体感システムは、そのような構成に限定されるものではなく、ユーザの数は3人以上であってもよい。 In this embodiment and the second embodiment described later, the number of users is two for easy understanding. However, the virtual space experience system of the present invention is not limited to such a configuration, and the number of users may be three or more.

[システムの概略構成]
まず、図1を参照して、VRシステムSの概略構成について説明する。
[Overview of system configuration]
First, a schematic configuration of the VR system S will be described with reference to FIG.

図1に示すように、VRシステムSは、現実空間RSに存在するユーザUに取り付けられる複数の標識1と、ユーザU(厳密には、ユーザUに取り付けられた標識1)を撮影するカメラ2と、仮想空間VS(図4等参照)の画像及び音声を決定するサーバ3と、決定された画像及び音声をユーザに認識させるヘッドマウントディスプレイ(以下、「HMD4」という。)とを備えている。 As shown in FIG. 1, the VR system S is a camera 2 that captures a plurality of signs 1 attached to a user U existing in the real space RS and a user U (strictly speaking, a sign 1 attached to the user U). It also includes a server 3 that determines the image and sound of the virtual space VS (see FIG. 4 and the like), and a head-mounted display (hereinafter referred to as "HMD4") that allows the user to recognize the determined image and sound. ..

VRシステムSでは、カメラ2、サーバ3及びHMD4は、インターネット網、公衆回線、近距離無線通信等の無線で相互に情報を送受信可能となっている。ただし、それらのいずれか同士を有線で相互に情報を送受信可能に構成してもよい。 In the VR system S, the camera 2, the server 3, and the HMD 4 can transmit and receive information to and from each other wirelessly such as an Internet network, a public line, and short-range wireless communication. However, any one of them may be configured to be able to send and receive information to and from each other by wire.

複数の標識1は、ユーザUの装着するHMD4、手袋及び靴を介して、ユーザUの頭部、両手及び両足のそれぞれに取り付けられている。なお、複数の標識1は、後述するようにユーザUの現実空間RSにおける座標及び姿勢(ひいては、動作(例えば、座標の移動、向きを含む姿勢の変化等))を認識するために用いられるものである。そのため、VRシステムSを構成する他の機器に応じて、標識1の取り付け位置は適宜変更してよい。 The plurality of signs 1 are attached to the head, both hands, and both feet of the user U via the HMD4, gloves, and shoes worn by the user U. The plurality of signs 1 are used to recognize the coordinates and the posture (for example, the movement of the coordinates, the change of the posture including the direction, etc.) in the real space RS of the user U as described later. Is. Therefore, the mounting position of the sign 1 may be appropriately changed according to other devices constituting the VR system S.

カメラ2は、ユーザUの存在する現実空間RSのユーザUが動作可能範囲(すなわち、座標の移動、姿勢の変化等をし得る範囲)を多方向から撮影可能なように設置されている。 The camera 2 is installed so that the user U of the real space RS in which the user U exists can shoot the operable range (that is, the range in which the coordinates can be moved, the posture can be changed, etc.) from multiple directions.

サーバ3は、カメラ2が撮影した画像から標識1を認識し、その認識された標識1の現実空間RSにおける位置に基づいて、ユーザUの座標及び姿勢を認識する。また、サーバ3は、その座標及び姿勢に基づいて、ユーザUに認識させる画像及び音声を決定する。 The server 3 recognizes the sign 1 from the image taken by the camera 2, and recognizes the coordinates and the posture of the user U based on the position of the recognized sign 1 in the real space RS. Further, the server 3 determines the image and the sound to be recognized by the user U based on the coordinates and the posture.

HMD4は、ユーザUの頭部に装着される。HMD4には、ユーザUに、サーバ3によって決定された仮想空間VSの画像をユーザUの認識させるためのモニタ41(仮想空間画像表示器)と、サーバ3によって決定された仮想空間VSの音声をユーザUに認識させるためのスピーカ42(仮想空間音声発生器)とが設けられている(図2参照)。 The HMD 4 is attached to the head of the user U. The HMD 4 has a monitor 41 (virtual space image display) for causing the user U to recognize the image of the virtual space VS determined by the server 3, and the sound of the virtual space VS determined by the server 3. A speaker 42 (virtual space voice generator) for making the user U recognize is provided (see FIG. 2).

VRシステムSを用いてゲーム等を行う場合、ユーザUは、仮想空間VSの画像と音声のみを認識して、ユーザU自身が仮想空間に存在していると認識させられる。すなわち、VRシステムSは、いわゆる没入型のシステムとして構成されている。 When playing a game or the like using the VR system S, the user U recognizes only the image and the sound of the virtual space VS, and is made to recognize that the user U himself / herself exists in the virtual space. That is, the VR system S is configured as a so-called immersive system.

なお、本発明の仮想空間体感システムは、そのような没入型のシステムに限定されるものではない。そのため、例えば、現実空間の画像と仮想空間の画像とを重畳して表示して、ユーザに拡張した現実空間を認識させるシステム(いわゆるARシステム)に、本発明の仮想空間体感システムの構成を適用してもよい。 The virtual space experience system of the present invention is not limited to such an immersive system. Therefore, for example, the configuration of the virtual space experience system of the present invention is applied to a system (so-called AR system) in which an image of a real space and an image of a virtual space are superimposed and displayed so that the user can recognize the expanded real space. You may.

VRシステムSでは、ユーザUの現実空間RSにおける座標を認識するシステムとして、標識1とカメラ2とサーバ3とによって構成された、いわゆるモーションキャプチャー装置を備えている。 The VR system S includes a so-called motion capture device composed of a marker 1, a camera 2, and a server 3 as a system for recognizing coordinates in the real space RS of the user U.

なお、本発明の仮想空間体感システムは、そのような構成に限定されるものではない。例えば、モーションキャプチャー装置を使用する場合には、上記の構成のものの他、標識及びカメラの数が上記構成とは異なる(例えば、それぞれ1つずつ設けられている)ものを用いてもよい。 The virtual space experience system of the present invention is not limited to such a configuration. For example, when using a motion capture device, in addition to the above configuration, one having a different number of signs and cameras from the above configuration (for example, one is provided for each) may be used.

また、例えば、モーションキャプチャー装置に代わり、ユーザの座標のみを認識する装置を用いてもよい。具体的には、例えば、HMDにGPS等のセンサを搭載し、そのセンサからの出力に基づいて、ユーザの座標、姿勢等を認識するようにしてもよい。また、そのようなセンサと、上記のようなモーションキャプチャー装置を併用してもよい。 Further, for example, instead of the motion capture device, a device that recognizes only the user's coordinates may be used. Specifically, for example, a sensor such as GPS may be mounted on the HMD, and the coordinates, posture, etc. of the user may be recognized based on the output from the sensor. Further, such a sensor may be used in combination with a motion capture device as described above.

[処理部の構成]
次に、図2を用いて、サーバ3の備えている処理部の構成を詳細に説明する。
[Configuration of processing unit]
Next, the configuration of the processing unit included in the server 3 will be described in detail with reference to FIG.

サーバ3は、CPU、RAM、ROM、インターフェース回路等を含む1つ又は複数の電子回路ユニットにより構成されている。サーバ3は、実装されたハードウェア構成又はプログラムにより実現される機能(処理部)として、図2に示すように、表示画像生成部31と、ユーザ情報認識部32と、トリガーイベント認識部33と、アバター座標決定部34と、仮想空間画像決定部35と、仮想空間音声決定部36とを備えている。 The server 3 is composed of one or a plurality of electronic circuit units including a CPU, RAM, ROM, an interface circuit, and the like. As shown in FIG. 2, the server 3 includes a display image generation unit 31, a user information recognition unit 32, and a trigger event recognition unit 33 as functions (processing units) realized by the implemented hardware configuration or program. The avatar coordinate determination unit 34, the virtual space image determination unit 35, and the virtual space voice determination unit 36 are provided.

表示画像生成部31は、HMD4のモニタ41を介してユーザUに認識させる画像を生成する。表示画像生成部31は、仮想空間生成部31aと、アバター生成部31bと、移動体生成部31cとを有している。 The display image generation unit 31 generates an image to be recognized by the user U via the monitor 41 of the HMD 4. The display image generation unit 31 has a virtual space generation unit 31a, an avatar generation unit 31b, and a mobile body generation unit 31c.

仮想空間生成部31aは、仮想空間VSの背景となる画像及び仮想空間VSに存在するオブジェクトの画像を生成する。 The virtual space generation unit 31a generates an image as a background of the virtual space VS and an image of an object existing in the virtual space VS.

アバター生成部31bは、仮想空間VSに、第1ユーザU1に対応するようにして第1アバターA1、及び、第1アバターA1とは独立したアバターである第1ゴーストG1を生成する(図6等参照)。また、アバター生成部31bは、第2ユーザU2に対応するようにして、第2アバターA2、及び、第2アバターA2とは独立したアバターである第2ゴーストG2を生成する(図6等参照)。 The avatar generation unit 31b generates the first avatar A1 and the first ghost G1 which is an avatar independent of the first avatar A1 in the virtual space VS so as to correspond to the first user U1 (FIG. 6 and the like). reference). Further, the avatar generation unit 31b generates the second avatar A2 and the second ghost G2 which is an avatar independent of the second avatar A2 so as to correspond to the second user U2 (see FIG. 6 and the like). ..

第1アバターA1及び第2アバターA2(以下、総称する場合は「アバターA」という。)、並びに、第1ゴーストG1及び第2ゴーストG2(以下、総称する場合は「ゴーストG」という。)は、対応するユーザUの現実空間RSにおける動作(すなわち、座標の移動及び姿勢の変化)に対応して、仮想空間VSにおいて動作する。 The first avatar A1 and the second avatar A2 (hereinafter, collectively referred to as "avatar A"), and the first ghost G1 and the second ghost G2 (hereinafter, collectively referred to as "ghost G") are , Operates in the virtual space VS in response to the corresponding user U's operation in the real space RS (ie, coordinate movement and attitude change).

移動体生成部31cは、仮想空間VSに、現実空間RSには対応する物体が存在せず、仮想空間VSにアバターと接続可能な移動体を生成する。 The mobile body generation unit 31c generates a mobile body that can be connected to the avatar in the virtual space VS because the object corresponding to the real space RS does not exist in the virtual space VS.

ここで、「移動体」とは、アバターが接続した際に、ユーザの現実の移動とは異なるアバターの移動を、(意識している、意識していないに関わらず)ユーザUに予測させるものであればよい。 Here, the "moving body" is a device that causes the user U to predict the movement of the avatar (whether conscious or unconscious) that is different from the actual movement of the user when the avatar is connected. It should be.

例えば、移動体としては、エレベータ等の現実空間で移動に使われるものの他、飛び乗ることが可能な川を流れる丸太、上に立った際に崩れそうな床、ジャンプ台、跳躍を補助する翼等が該当する。また、移動体としては、仮想空間の地面、壁面に描画された文字、模様等も該当する。 For example, as moving objects, in addition to those used for movement in real space such as elevators, logs flowing through rivers where jumping is possible, floors that are likely to collapse when standing on, jumping platforms, wings that assist jumping, etc. Applies to. Further, as the moving body, characters, patterns and the like drawn on the ground and the wall surface of the virtual space are also applicable.

また、ここで、アバターと移動体との「接続」とは、移動体の移動、移動体の形状の変化等がアバターの座標に影響することを、ユーザが予測し得る状態になることをいう。 Further, here, the "connection" between the avatar and the moving body means that the user can predict that the movement of the moving body, the change in the shape of the moving body, etc. affect the coordinates of the avatar. ..

例えば、アバターがエレベータに乗り込む、アバターが川を流れる丸太に乗る、アバターが崩れそうな床の上に立つ、ジャンプ台の上に立つ、跳躍を補助する翼をアバターが装着する等が、接続に該当する。また、仮想空間の地面、壁面に描画された文字、模様等に、アバターが接触、近接すること等も、接続に該当する。 For example, the avatar gets into the elevator, the avatar rides on a log flowing through the river, the avatar stands on the floor where it is about to collapse, the avatar stands on the jumping platform, the avatar wears wings to assist in jumping, etc. Applicable. In addition, the avatar touching or approaching the characters, patterns, etc. drawn on the ground or wall surface of the virtual space also corresponds to the connection.

ユーザ情報認識部32には、カメラ2が撮影した標識1を含むユーザUの画像データが入力される。このユーザ情報認識部32は、ユーザ姿勢認識部32aと、ユーザ座標認識部32bとを有している。 Image data of the user U including the sign 1 taken by the camera 2 is input to the user information recognition unit 32. The user information recognition unit 32 has a user posture recognition unit 32a and a user coordinate recognition unit 32b.

ユーザ姿勢認識部32aは、入力されたユーザUの画像データから標識1を抽出し、その抽出結果に基づいて、ユーザUの姿勢を認識する。 The user posture recognition unit 32a extracts the sign 1 from the input image data of the user U, and recognizes the posture of the user U based on the extraction result.

ユーザ座標認識部32bは、入力されたユーザUの画像データから標識1を抽出し、その抽出結果に基づいて、ユーザUの座標を認識する。 The user coordinate recognition unit 32b extracts the marker 1 from the input image data of the user U, and recognizes the coordinates of the user U based on the extraction result.

トリガーイベント認識部33は、システム設計者が予め定めた条件を満たした際に、所定のトリガーイベントが発生したこと、又は、トリガーイベントが解除されたことを認識する。 The trigger event recognition unit 33 recognizes that a predetermined trigger event has occurred or that the trigger event has been canceled when the system designer satisfies a predetermined condition.

ここで、トリガーイベントは、ユーザがその発生を認識していないものであってもよい。そのため、トリガーイベントとしては、例えば、ユーザが現実空間において所定の動作を行うこと(すなわち、ユーザに対応するアバターが仮想空間において所定の動作を行うこと)等のユーザの動作に起因するものも該当するし、所定時間の経過といったユーザの動作に起因しないものも該当する。 Here, the trigger event may be one that the user is not aware of its occurrence. Therefore, as the trigger event, for example, an event caused by the user's action such as the user performing a predetermined action in the real space (that is, the avatar corresponding to the user performs the predetermined action in the virtual space) is also applicable. However, those that are not caused by the user's actions such as the passage of a predetermined time are also applicable.

アバター座標決定部34は、ユーザ座標認識部32bによって認識されたユーザUの現実空間RSにおける座標に基づいて、そのユーザUに対応するアバターの仮想空間VSにおける座標を決定する。 The avatar coordinate determination unit 34 determines the coordinates of the avatar corresponding to the user U in the virtual space VS based on the coordinates in the real space RS of the user U recognized by the user coordinate recognition unit 32b.

また、アバター座標決定部34は、トリガーイベント認識部33が所定のトリガーイベントの発生を認識した際には、所定期間若しくは所定範囲、又は、所定期間及び所定範囲において、ユーザの座標に関わらず、そのユーザに対応するアバターの座標を移動させる。 Further, when the trigger event recognition unit 33 recognizes the occurrence of a predetermined trigger event, the avatar coordinate determination unit 34 has a predetermined period or a predetermined range, or a predetermined period and a predetermined range, regardless of the user's coordinates. Move the coordinates of the avatar corresponding to that user.

また、アバター座標決定部34は、トリガーイベント認識部33が所定のトリガーイベントの発生を認識した際には、所定期間若しくは所定範囲、又は、所定期間及び所定範囲において、ユーザUに対応するアバターAの座標に所定のズレを生じさせた座標に基づいて、ゴーストGの座標を決定する。 Further, when the trigger event recognition unit 33 recognizes the occurrence of a predetermined trigger event, the avatar coordinate determination unit 34 corresponds to the user U in the predetermined period or the predetermined range, or the predetermined period and the predetermined range. The coordinates of the ghost G are determined based on the coordinates that cause a predetermined deviation in the coordinates of.

仮想空間画像決定部35は、アバターの座標に基づいて、HMD4のモニタ41を介して、そのアバターに対応するユーザUに認識させる仮想空間の画像を決定する。 The virtual space image determination unit 35 determines an image of the virtual space to be recognized by the user U corresponding to the avatar via the monitor 41 of the HMD 4 based on the coordinates of the avatar.

ここで、「仮想空間の画像」には、仮想空間の背景の画像の他、他のアバターの画像、ゴーストの画像、仮想空間にのみ存在するオブジェクトの画像、現実空間に対応して仮想空間に存在するオブジェクトの画像等が含まれる。 Here, the "image of the virtual space" includes an image of the background of the virtual space, an image of another avatar, an image of a ghost, an image of an object existing only in the virtual space, and a virtual space corresponding to the real space. Images of existing objects, etc. are included.

なお、本実施形態におけるゴーストGの画像には、そのゴーストGに対応するユーザUに対応している旨を示す情報が付加されている。 The image of the ghost G in the present embodiment is provided with information indicating that it corresponds to the user U corresponding to the ghost G.

ここで、ユーザに「対応している旨を示す情報」とは、例えば、常時又はユーザの要求に応じて表示されるメッセージといった直接的な情報の他、対応するアバターの形状を半透明にしたものをゴーストの形状として採用することによって示される間接的な情報も含む。 Here, the "information indicating that the user is responding" is, for example, direct information such as a message displayed at all times or in response to the user's request, and the corresponding avatar shape is made translucent. It also includes indirect information presented by adopting things as ghost shapes.

仮想空間音声決定部36は、アバターの座標に基づいて、HMD4のスピーカ42を介して、そのアバターに対応するユーザUに認識させる音声を決定する。 The virtual space voice determination unit 36 determines the voice to be recognized by the user U corresponding to the avatar via the speaker 42 of the HMD 4 based on the coordinates of the avatar.

なお、本発明の仮想空間体感システムを構成する各処理部は、上記のような構成に限定されるものではない。 It should be noted that each processing unit constituting the virtual space experience system of the present invention is not limited to the above configuration.

例えば、上記実施形態においてサーバ3に設けられている処理部の一部を、HMD4に設けてもよい。また、複数のサーバを用いて構成してもよいし、サーバを省略してHMDに搭載されているCPUを協働させて構成してもよい。また、HMDに搭載されているスピーカ以外のスピーカを設けてもよい。また、視覚及び聴覚へ影響を与えるデバイスの他、仮想空間に応じた匂い、風等を生じさせるような嗅覚及び触覚へ影響を与えるデバイスを含めてもよい。 For example, a part of the processing unit provided in the server 3 in the above embodiment may be provided in the HMD 4. Further, it may be configured by using a plurality of servers, or the servers may be omitted and the CPUs mounted on the HMD may be cooperated with each other. Further, a speaker other than the speaker mounted on the HMD may be provided. Further, in addition to the device that affects the visual sense and the auditory sense, the device that affects the sense of smell and the sense of touch that causes odor, wind, etc. according to the virtual space may be included.

[実行される処理]
次に、図2~図10を参照して、VRシステムSを用いてユーザUに仮想空間VSを体感させる際に、VRシステムSの実行する処理について説明する。
[Process to be executed]
Next, with reference to FIGS. 2 to 10, a process executed by the VR system S when the user U is made to experience the virtual space VS by using the VR system S will be described.

[通常の使用状態における処理]
まず、図2、図3及び図4を参照して、VRシステムSが通常の使用状態(すなわち、後述するトリガーイベントの発生を認識していない状態で)実行する処理について説明する。
[Processing under normal usage conditions]
First, with reference to FIGS. 2, 3 and 4, a process executed by the VR system S in a normal use state (that is, in a state in which the occurrence of a trigger event described later is not recognized) will be described.

この処理においては、まず、サーバ3の表示画像生成部31は、仮想空間VS、第1アバターA1及び第2アバターA2、並びに、移動体を生成する(図3/STEP100)。 In this process, first, the display image generation unit 31 of the server 3 generates the virtual space VS, the first avatar A1 and the second avatar A2, and the moving body (FIG. 3 / STEP100).

具体的には、表示画像生成部31の仮想空間生成部31aは、仮想空間VS及び仮想空間VSに存在する各種オブジェクトを生成する。また、表示画像生成部31のアバター生成部31bは、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2アバターA2を生成する。また、表示画像生成部31の移動体生成部31cは、後述するエレベータVS1等の移動体を生成する。 Specifically, the virtual space generation unit 31a of the display image generation unit 31 generates various objects existing in the virtual space VS and the virtual space VS. Further, the avatar generation unit 31b of the display image generation unit 31 generates the first avatar A1 corresponding to the first user U1 and the second avatar A2 corresponding to the second user U2. Further, the mobile body generation unit 31c of the display image generation unit 31 generates a mobile body such as an elevator VS1 described later.

このSTEP100の処理により生成された仮想空間VSには、図4に示すように、第1アバターA1及び第2アバターA2、並びに、移動体であるエレベータVS1の他、現実空間RSに設置されているホワイトボードRS1に対応する位置に生成されたスイッチVS2等のトリガーイベントに関連するオブジェクトが設置されている。 As shown in FIG. 4, the virtual space VS generated by the process of STEP 100 is installed in the real space RS in addition to the first avatar A1 and the second avatar A2, and the moving body elevator VS1. Objects related to the trigger event such as the switch VS2 generated at the position corresponding to the whiteboard RS1 are installed.

次に、サーバ3のアバター座標決定部34は、第1ユーザU1の現実空間RSにおける座標及び姿勢に基づいて、第1アバターA1の仮想空間VSにおける座標及び姿勢を決定し、第2ユーザU2の現実空間RSにおける座標及び姿勢に基づいて、第2アバターA2の仮想空間VSにおける座標及び姿勢を決定する(図3/STEP101)。 Next, the avatar coordinate determination unit 34 of the server 3 determines the coordinates and attitude of the first avatar A1 in the virtual space VS based on the coordinates and attitude of the first user U1 in the real space RS, and determines the coordinates and attitude of the second user U2. Based on the coordinates and posture in the real space RS, the coordinates and posture of the second avatar A2 in the virtual space VS are determined (FIG. 3 / STEP101).

このSTEP101以降の処理における第1ユーザU1及び第2ユーザU2の座標及び姿勢は、カメラ2によって撮影された画像データに基づいてサーバ3のユーザ情報認識部32によって認識された座標及び姿勢が用いられる。 As the coordinates and postures of the first user U1 and the second user U2 in the processing after STEP 101, the coordinates and postures recognized by the user information recognition unit 32 of the server 3 based on the image data taken by the camera 2 are used. ..

次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、第1ユーザU1に認識させる画像及び音声を、第1アバターA1の仮想空間VSにおける座標及び姿勢に基づいて決定し、第2ユーザU2に認識させる画像及び音声を、第2アバターA2の仮想空間VSにおける座標及び姿勢に基づいて決定(図3/STEP102)。 Next, the virtual space image determination unit 35 and the virtual space voice determination unit 36 of the server 3 determine the image and sound to be recognized by the first user U1 based on the coordinates and the posture of the first avatar A1 in the virtual space VS. , The image and sound to be recognized by the second user U2 are determined based on the coordinates and the posture of the second avatar A2 in the virtual space VS (FIG. 3 / STEP102).

次に、ユーザUの装着しているHMD4は、HMD4に搭載されているモニタ41に決定された画像を表示させ、HMD4に搭載されているスピーカ42に決定された音声を発生させる(図3/STEP103)。 Next, the HMD4 mounted by the user U causes the monitor 41 mounted on the HMD4 to display the determined image, and the speaker 42 mounted on the HMD4 generates the determined voice (FIG. 3 /). STEP103).

次に、サーバ3のユーザ情報認識部32は、第1ユーザU1又は第2ユーザU2の現実空間RSにおける座標の移動又は姿勢の変化が認識されたか否かを判断する(図3/STEP104)。 Next, the user information recognition unit 32 of the server 3 determines whether or not the movement of coordinates or the change in posture in the real space RS of the first user U1 or the second user U2 is recognized (FIG. 3 / STEP104).

第1ユーザU1又は第2ユーザU2の現実空間RSにおける座標の移動又は姿勢の変化が認識された場合(STEP104でYESの場合)、STEP101に戻り、再度、STEP101以降の処理が実行される。 When the movement of coordinates or the change of posture in the real space RS of the first user U1 or the second user U2 is recognized (YES in STEP 104), the process returns to STEP 101 and the processing after STEP 101 is executed again.

一方、第1ユーザU1又は第2ユーザU2の現実空間RSにおける座標の移動又は姿勢の変化が認識されなかった場合(STEP104でNOの場合)、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図3/STEP105)。 On the other hand, when the movement of coordinates or the change of posture in the real space RS of the first user U1 or the second user U2 is not recognized (NO in STEP 104), the server 3 recognizes the signal instructing the end of processing. It is determined whether or not it has been done (Fig. 3 / STEP105).

終了を指示する信号を認識できなかった場合(STEP105でNOの場合)、STEP104に戻り、再度、STEP104以降の処理が実行される。 If the signal indicating the end cannot be recognized (NO in STEP 105), the process returns to STEP 104, and the processing after STEP 104 is executed again.

一方、終了を指示する信号を認識した場合(STEP105でYESの場合)、VRシステムSは、今回の処理を終了する。 On the other hand, when the signal instructing the end is recognized (YES in STEP 105), the VR system S ends the current process.

以上の処理により、仮想空間VSでは、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2アバターA2と、移動体であるエレベータVS1、後述するトリガーイベントの発生に関連するスイッチVS2等を含む複数のオブジェクトが設置される。 By the above processing, in the virtual space VS, the first avatar A1 corresponding to the first user U1, the second avatar A2 corresponding to the second user U2, the elevator VS1 which is a moving object, and the occurrence of the trigger event described later are related. A plurality of objects including the switch VS2 and the like are installed.

そして、第1ユーザU1及び第2ユーザU2は、それぞれが装着したHMD4で表示される画像及び発生される音声によって、それぞれに対応する第1アバターA1及び第2アバターA2を介して、自身が仮想空間VSに存在し、自由に動作することができると認識するようになる。 Then, the first user U1 and the second user U2 themselves virtualize themselves via the corresponding first avatar A1 and second avatar A2 by the image displayed by the HMD 4 and the generated voice. It exists in the space VS and comes to recognize that it can move freely.

[仮想空間を拡張させる際及びそれ以後における処理]
次に、図2、図4~図7を参照して、仮想空間VSをその仮想空間VSに対応する現実空間RSよりも広くなるように拡張させる際及びそれ以後において、VRシステムSが実行する処理について説明する。
[Processing when expanding virtual space and after]
Next, with reference to FIGS. 2, 4 to 7, the VR system S executes when and after expanding the virtual space VS so as to be wider than the real space RS corresponding to the virtual space VS. The processing will be described.

ここで、具体的な処理の内容の説明に先立って、仮想空間VSをその仮想空間VSに対応する現実空間RSよりも広くなるように拡張させる処理、及び、それに伴う接触回避のための処理の概要を説明する。 Here, prior to the explanation of the contents of the specific processing, the processing for expanding the virtual space VS so as to be wider than the real space RS corresponding to the virtual space VS, and the processing for avoiding contact accompanying the expansion. I will explain the outline.

VRシステムSは、所定のトリガーイベント(本発明における第2トリガーイベント)が発生した際に、第1ユーザU1の座標と第1アバターA1の座標との対応関係、又は、第2ユーザU2と第2アバターA2との対応関係に、ズレを生じさせる処理を行うように構成されている。 In the VR system S, when a predetermined trigger event (second trigger event in the present invention) occurs, the correspondence between the coordinates of the first user U1 and the coordinates of the first avatar A1 or the second user U2 and the second user U2. 2 It is configured to perform a process of causing a deviation in the correspondence with the avatar A2.

本実施形態では、例えば、図4に示すように、第1アバターA1が移動体であるエレベータVS1に乗っている状態(接続されている状態)で、図6に示すように、第2アバターA2がスイッチVS2を押すことが、そのトリガーイベントとして設定されている。 In the present embodiment, for example, as shown in FIG. 4, the first avatar A1 is on the moving elevator VS1 (connected), and as shown in FIG. 6, the second avatar A2 is used. Pressing switch VS2 is set as its trigger event.

そして、そのトリガーイベントの発生が認識された際には、図4及び図6に示すように、第1ユーザU1の座標の移動に関わらず、第1ユーザU1に対応する第1アバターA1の座標は、上方向へと移動する。具体的には、第1アバターA1は、エレベータVS1によって、仮想空間VSに規定された1階部分である第1フロアF1から、2階部分である第2フロアF2へと移動する。 Then, when the occurrence of the trigger event is recognized, as shown in FIGS. 4 and 6, the coordinates of the first avatar A1 corresponding to the first user U1 are coordinated regardless of the movement of the coordinates of the first user U1. Moves upwards. Specifically, the first avatar A1 moves from the first floor F1 which is the first floor portion defined in the virtual space VS to the second floor F2 which is the second floor portion by the elevator VS1.

これにより、VRシステムSでは、対応する第1アバターA1が移動させられた第1ユーザU1、及び、第1アバターA1を認識している第2ユーザU2に、現実空間RSよりも上下方向に拡張された仮想空間VSを認識させることができるようになっている。 As a result, in the VR system S, the corresponding first avatar A1 is extended to the moved first user U1 and the second user U2 recognizing the first avatar A1 in the vertical direction from the real space RS. It is possible to recognize the virtual space VS that has been created.

ここで、そのようなズレを生じさせた場合、第1ユーザU1と第2ユーザU2とは、現実空間RSにおける互いの位置関係を適切に把握することができなくなるおそれがある。その結果、意図せず第1ユーザU1と第2ユーザU2とが接触してしまうおそれがあった。 Here, if such a deviation occurs, the first user U1 and the second user U2 may not be able to properly grasp the mutual positional relationship in the real space RS. As a result, there is a possibility that the first user U1 and the second user U2 may come into contact with each other unintentionally.

例えば、図6に示す状態においては、第2ユーザU2は、第1アバターA1と同様に第1ユーザU1が現実空間RSでも上方に移動していると誤解してしまう場合がある。そして、図7に示すように、第2ユーザU2は、仮想空間VSで自らに対応する第2アバターA2をエレベータVS1の下方に移動可能であると誤解し、第2アバターA2をエレベータVS1の下方に移動させるように、自らが移動しようとしてしまう場合がある。 For example, in the state shown in FIG. 6, the second user U2 may misunderstand that the first user U1 is moving upward in the real space RS as well as the first avatar A1. Then, as shown in FIG. 7, the second user U2 misunderstands that the second avatar A2 corresponding to himself / herself can be moved below the elevator VS1 in the virtual space VS, and moves the second avatar A2 below the elevator VS1. You may try to move yourself, just as you would move to.

しかし、現実空間RSでは、実際には第1バターA1に対応する第1ユーザU1が第2ユーザU2と同じ高さに存在している。そのため、その場合には、現実空間RSにおいて、第1ユーザU1と第2ユーザU2とが接触してしまうことになる。その結果、第1ユーザU1及び第2ユーザU2の仮想空間VSへの没入感が阻害されてしまうおそれがあった。 However, in the real space RS, the first user U1 corresponding to the first butter A1 actually exists at the same height as the second user U2. Therefore, in that case, the first user U1 and the second user U2 come into contact with each other in the real space RS. As a result, there is a possibility that the immersive feeling of the first user U1 and the second user U2 in the virtual space VS may be hindered.

そこで、VRシステムSでは、所定のトリガーイベントの発生が認識された際には、以下に説明するように、仮想空間VSをその仮想空間VSに対応する現実空間RSよりも広くなるように拡張させる処理を実行するとともに、接触回避のための処理を実行することにより、意図しない第1ユーザU1と第2ユーザU2との接触を防止している。 Therefore, in the VR system S, when the occurrence of a predetermined trigger event is recognized, the virtual space VS is expanded so as to be wider than the real space RS corresponding to the virtual space VS, as described below. By executing the process and executing the process for avoiding contact, unintended contact between the first user U1 and the second user U2 is prevented.

この処理においては、まず、サーバ3のトリガーイベント認識部33は、トリガーイベントの発生を認識したか否かを判断する(図5/STEP200)。 In this process, first, the trigger event recognition unit 33 of the server 3 determines whether or not the occurrence of the trigger event has been recognized (FIG. 5 / STEP200).

具体的には、まず、トリガーイベント認識部33は、図4に示すように、仮想空間VSで、第1ユーザU1に対応する第1アバターA1の座標が移動体であるエレベータVS1に乗るように、現実空間RSで、第1ユーザU1の座標が移動したか否かを判断する。 Specifically, first, as shown in FIG. 4, the trigger event recognition unit 33 makes the coordinates of the first avatar A1 corresponding to the first user U1 ride on the elevator VS1 which is a moving body in the virtual space VS. , In the real space RS, it is determined whether or not the coordinates of the first user U1 have moved.

その後、トリガーイベント認識部33は、さらに、仮想空間VSで、第2ユーザU2に対応する第2アバターA2がスイッチVS2近傍の位置でそのスイッチVS2に触れる姿勢となるように、現実空間RSで、第2ユーザU2が移動して所定の姿勢となったか否かを判断する(図6参照)。 After that, the trigger event recognition unit 33 further, in the virtual space VS, in the real space RS so that the second avatar A2 corresponding to the second user U2 is in a posture of touching the switch VS2 at a position near the switch VS2. It is determined whether or not the second user U2 has moved to a predetermined posture (see FIG. 6).

そして、第1アバターA1がエレベータVS1に乗った状態で、第2アバターA2がスイッチVSに触れる姿勢となったときには、トリガーイベント認識部33は、トリガーイベントが発生したと認識する。 Then, when the first avatar A1 is in the posture of touching the switch VS while the first avatar A1 is on the elevator VS1, the trigger event recognition unit 33 recognizes that the trigger event has occurred.

トリガーイベントの発生を認識しなかった場合(STEP200でNOの場合)、STEP200に戻り、再度、判断が実行される。この処理は、所定の制御周期で繰り返される。 If the occurrence of the trigger event is not recognized (NO in STEP200), the process returns to STEP200 and the determination is executed again. This process is repeated at a predetermined control cycle.

一方、トリガーイベントの発生を認識した場合(STEP200でYESの場合)、サーバ3のアバター座標決定部34は、第1アバターA1の座標を移動させる(図5/STEP201)。 On the other hand, when the occurrence of the trigger event is recognized (YES in STEP200), the avatar coordinate determination unit 34 of the server 3 moves the coordinates of the first avatar A1 (FIG. 5 / STEP201).

具体的には、アバター座標決定部34は、認識されたトリガーイベントの種類に応じて予め定められているズレの内容(すなわち、補正方向及び補正量)に応じて、第1ユーザU1の座標に基づく第1アバターA1の座標を移動させる。この移動は、第1ユーザU1の座標の移動に基づく第1アバターA1の座標の移動とは、独立して行われる。これにより、第1ユーザU1の座標と第1アバターA1の座標との対応関係にズレが生じる。 Specifically, the avatar coordinate determination unit 34 sets the coordinates of the first user U1 according to the content of the deviation (that is, the correction direction and the correction amount) predetermined according to the type of the recognized trigger event. Move the coordinates of the first avatar A1 based on it. This movement is performed independently of the movement of the coordinates of the first avatar A1 based on the movement of the coordinates of the first user U1. As a result, the correspondence between the coordinates of the first user U1 and the coordinates of the first avatar A1 is deviated.

本実施形態においては、図4の状態から図6に示す状態になるように、第1アバターA1が、エレベータVS1と一体的に、第1フロアF1から第2フロアF2まで上方に向かって移動する。 In the present embodiment, the first avatar A1 moves upward from the first floor F1 to the second floor F2 integrally with the elevator VS1 so as to change from the state of FIG. 4 to the state shown in FIG. ..

次に、サーバ3の表示画像生成部31は、第1ゴーストG1及び第2ゴーストG2を生成する(図5/STEP202)。 Next, the display image generation unit 31 of the server 3 generates the first ghost G1 and the second ghost G2 (FIG. 5 / STEP202).

具体的には、表示画像生成部31のアバター生成部31bは、トリガーイベントの発生をトリガーとして、仮想空間VSに、第1ユーザU1に対応する第1ゴーストG1を生成するとともに、第2ユーザU2に対応する第2ゴーストG2を生成する。 Specifically, the avatar generation unit 31b of the display image generation unit 31 generates the first ghost G1 corresponding to the first user U1 in the virtual space VS with the occurrence of the trigger event as a trigger, and the second user U2. Generates a second ghost G2 corresponding to.

本実施形態においては、図6に示すように、第1ゴーストG1は、第1ユーザU1に対応している旨を示すために、第1アバターA1と同じ形状の半透明のアバターとして構成される。また、第1ゴーストG1には、後述する第1情報ボードG1aが付加される。同様に、第2ゴーストG2は、第2ユーザU2に対応している旨を示すために、第2アバターA2と同じ形状の半透明のアバターとして構成され、また、第2ゴーストG2には、後述する第2情報ボードG2aが付加される。 In the present embodiment, as shown in FIG. 6, the first ghost G1 is configured as a translucent avatar having the same shape as the first avatar A1 in order to show that it corresponds to the first user U1. .. Further, a first information board G1a, which will be described later, is added to the first ghost G1. Similarly, the second ghost G2 is configured as a translucent avatar having the same shape as the second avatar A2 in order to indicate that it corresponds to the second user U2, and the second ghost G2 will be described later. A second information board G2a is added.

また、本実施形態においては、第1ゴーストG1の生成される座標は、STEP201の処理が実行される直前における第1アバターA1の座標と一致するように設定されている。また、第2ゴーストG2の生成される座標は、第2ユーザU2の座標とは独立した座標となるように設定されている。 Further, in the present embodiment, the coordinates generated by the first ghost G1 are set to match the coordinates of the first avatar A1 immediately before the processing of STEP 201 is executed. Further, the coordinates generated by the second ghost G2 are set to be independent of the coordinates of the second user U2.

次に、サーバ3のアバター座標決定部34は、ユーザ情報認識部32が認識した第1ユーザU1の現実空間RSにおける座標及び姿勢に基づいて、第1アバターA1及び第1ゴーストG1の仮想空間VSにおける座標及び姿勢を決定する(図5/STEP203)。 Next, the avatar coordinate determination unit 34 of the server 3 determines the virtual space VS of the first avatar A1 and the first ghost G1 based on the coordinates and posture in the real space RS of the first user U1 recognized by the user information recognition unit 32. (Fig. 5 / STEP203).

具体的には、アバター座標決定部34は、認識されたトリガーイベントの種類に応じて予め定められているズレの内容(すなわち、補正方向及び補正量)に応じて、トリガーイベントの発生が認識される時点の前までの処理(STEP201の処理が実行される前までの処理)によって決定された第1アバターA1の座標及び姿勢を補正して、トリガーイベントの発生が認識された時点以後における第1アバターA1の座標及び姿勢を決定する。 Specifically, the avatar coordinate determination unit 34 recognizes the occurrence of the trigger event according to the content of the deviation (that is, the correction direction and the correction amount) predetermined according to the type of the recognized trigger event. The first avatar after the time when the occurrence of the trigger event is recognized by correcting the coordinates and orientation of the first avatar A1 determined by the processing before the time point (processing before the processing of STEP201 is executed). Determine the coordinates and orientation of avatar A1.

本実施形態においては、アバター座標決定部34は、第1ユーザU1の座標に基づく第1アバターA1の座標を、第1フロアF1に対する第2フロアF2の高さの分だけ上方向に移動させた座標を、トリガーイベントの発生が認識された時点以後における第1アバターA1の座標として決定する。また、アバター座標決定部34は、第1ユーザU1の姿勢に基づく第1アバターA1の姿勢を、そのまま、トリガーイベントの発生が認識された時点以後における第1アバターA1の姿勢として決定する。 In the present embodiment, the avatar coordinate determination unit 34 moves the coordinates of the first avatar A1 based on the coordinates of the first user U1 upward by the height of the second floor F2 with respect to the first floor F1. The coordinates are determined as the coordinates of the first avatar A1 after the time when the occurrence of the trigger event is recognized. Further, the avatar coordinate determination unit 34 determines the posture of the first avatar A1 based on the posture of the first user U1 as the posture of the first avatar A1 after the time when the occurrence of the trigger event is recognized.

また、アバター座標決定部34は、トリガーイベントの発生が認識される時点の前までに第1アバターA1の座標及び姿勢を決定していた処理と同様の処理を用いて、第1ユーザU1の座標及び姿勢に基づいて、第1ゴーストG1の座標及び姿勢を決定する。 Further, the avatar coordinate determination unit 34 uses the same process as the process of determining the coordinates and posture of the first avatar A1 before the time when the occurrence of the trigger event is recognized, and the coordinates of the first user U1. And, based on the posture, the coordinates and the posture of the first ghost G1 are determined.

次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、第1ユーザU1に認識させる画像及び音声を、第1アバターA1の仮想空間VSにおける座標及び姿勢に基づいて決定する(図5/STEP204)。 Next, the virtual space image determination unit 35 and the virtual space voice determination unit 36 of the server 3 determine the image and sound to be recognized by the first user U1 based on the coordinates and the posture of the first avatar A1 in the virtual space VS. (Fig. 5 / STEP204).

次に、サーバ3のアバター座標決定部34は、ユーザ情報認識部32が認識した第2ユーザU2の現実空間RSにおける座標及び姿勢に基づいて、第2アバターA2及び第2ゴーストG2の仮想空間VSにおける座標及び姿勢を決定する(図5/STEP205)。 Next, the avatar coordinate determination unit 34 of the server 3 determines the virtual space VS of the second avatar A2 and the second ghost G2 based on the coordinates and the posture of the second user U2 recognized by the user information recognition unit 32 in the real space RS. (Fig. 5 / STEP205).

具体的には、アバター座標決定部34は、これまでに第2アバターA2の座標及び姿勢を決定していた処理と同様の処理を用いて、第2ユーザU2の座標及び姿勢に基づいて、第2アバターA2の座標及び姿勢を決定する。 Specifically, the avatar coordinate determination unit 34 uses the same processing as the processing for determining the coordinates and posture of the second avatar A2, and based on the coordinates and posture of the second user U2, the second 2 Determine the coordinates and attitude of the avatar A2.

また、アバター座標決定部34は、認識されたトリガーイベントの種類に応じて予め定められているズレの内容(すなわち、補正方向及び補正量)に応じて、トリガーイベントの発生が認識される時点の前までの処理によって決定された第2アバターA2の座標及び姿勢を補正して、第2ゴーストG2の座標及び姿勢を決定する。 Further, the avatar coordinate determination unit 34 is at a time when the occurrence of the trigger event is recognized according to the content of the deviation (that is, the correction direction and the correction amount) predetermined according to the type of the recognized trigger event. The coordinates and posture of the second avatar A2 determined by the previous processing are corrected, and the coordinates and posture of the second ghost G2 are determined.

本実施形態においては、アバター座標決定部34は、第2ユーザU2の座標に基づく第2アバターA2の座標を、第1フロアF1に対する第2フロアF2の高さの分だけ上方向に移動させたものを、トリガーイベントの発生が認識された時点以後における第2ゴーストG2の座標として決定する。 In the present embodiment, the avatar coordinate determination unit 34 moves the coordinates of the second avatar A2 based on the coordinates of the second user U2 upward by the height of the second floor F2 with respect to the first floor F1. It is determined as the coordinates of the second ghost G2 after the time when the occurrence of the trigger event is recognized.

また、アバター座標決定部34は、第2ユーザU2の姿勢に基づく第2アバターA2の姿勢を、そのまま、トリガーイベントの発生が認識された時点以後における第2ゴーストG2の姿勢として決定する。 Further, the avatar coordinate determination unit 34 determines the posture of the second avatar A2 based on the posture of the second user U2 as the posture of the second ghost G2 after the time when the occurrence of the trigger event is recognized.

次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、第2ユーザU2に認識させる画像及び音声を、第2アバターA2の仮想空間VSにおける座標及び姿勢に基づいて決定する(図5/STEP206)。 Next, the virtual space image determination unit 35 and the virtual space voice determination unit 36 of the server 3 determine the image and sound to be recognized by the second user U2 based on the coordinates and the posture of the second avatar A2 in the virtual space VS. (Fig. 5 / STEP206).

次に、ユーザUの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図5/STEP207)。 Next, the HMD 4 worn by the user U displays the determined image on the monitor 41 and generates voice on the speaker 42 (FIG. 5 / STEP207).

次に、サーバ3のユーザ情報認識部32は、第1ユーザU1又は第2ユーザU2の現実空間RSにおける座標の移動又は姿勢の変化が認識されたか否かを判断する(図5/STEP208)。 Next, the user information recognition unit 32 of the server 3 determines whether or not the movement of coordinates or the change in posture in the real space RS of the first user U1 or the second user U2 is recognized (FIG. 5 / STEP208).

第1ユーザU1又は第2ユーザU2の現実空間RSにおける座標の移動又は姿勢の変化が認識された場合(STEP208でYESの場合)、STEP203に戻り、再度、STEP203以降の処理が実行される。 When the movement of coordinates or the change of posture in the real space RS of the first user U1 or the second user U2 is recognized (YES in STEP 208), the process returns to STEP 203 and the processing after STEP 203 is executed again.

一方、第1ユーザU1又は第2ユーザU2の現実空間RSにおける座標の移動又は姿勢の変化が認識されなかった場合(STEP208でNOの場合)、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図5/STEP209)。 On the other hand, when the movement of coordinates or the change of posture in the real space RS of the first user U1 or the second user U2 is not recognized (NO in STEP 208), the server 3 recognizes the signal instructing the end of processing. It is determined whether or not it has been done (Fig. 5 / STEP209).

終了を指示する信号を認識できなかった場合(STEP209でNOの場合)、STEP208に戻り、再度、STEP208以降の処理が実行される。 If the signal indicating the end cannot be recognized (NO in STEP209), the process returns to STEP208, and the processing after STEP208 is executed again.

一方、終了を指示する信号を認識した場合(STEP209でYESの場合)、VRシステムSは、今回の処理を終了する。 On the other hand, when the signal instructing the end is recognized (YES in STEP209), the VR system S ends the current process.

以上説明したように、VRシステムSでは、トリガーイベントが発生し、第1ユーザU1の座標と第1ユーザU1に対応する第1アバターA1の座標との対応関係にズレが生じた場合には、第1ユーザU1の座標に対応する第1ゴーストG1が生成され、第2ユーザU2の座標に対応する座標を、そのズレに対応するように補正した座標に第2ゴーストG2が生成される。 As described above, in the VR system S, when a trigger event occurs and the correspondence between the coordinates of the first user U1 and the coordinates of the first avatar A1 corresponding to the first user U1 is deviated. The first ghost G1 corresponding to the coordinates of the first user U1 is generated, and the second ghost G2 is generated at the coordinates obtained by correcting the coordinates corresponding to the coordinates of the second user U2 so as to correspond to the deviation.

そして、第1ユーザU1の認識する仮想空間VSの画像及び音声に、その第2ゴーストG2の画像及び音声が含まれるようになる。また、第2ユーザU2の認識する仮想空間VSの画像及び音声に、その第1ゴーストG1の画像及び音声が含まれるようになる。 Then, the image and sound of the virtual space VS recognized by the first user U1 include the image and sound of the second ghost G2. Further, the image and sound of the virtual space VS recognized by the second user U2 include the image and sound of the first ghost G1.

そのため、トリガーイベントの発生が認識された後には、第1ユーザU1は、何らかの動作を行う際に、自然に自らの補正した座標に対応する第1アバターA1と、第2プレイヤーの補正した座標に対応する第2ゴーストG2との接触を回避しつつ動作する。また、第2ユーザU2は、何らかの動作を行う際に、自然に自らの座標に対応する第2アバターA2と、第1ユーザU1の座標に対応する第1ゴーストG1との接触を回避しつつ動作する。 Therefore, after the occurrence of the trigger event is recognized, the first user U1 naturally changes to the first avatar A1 corresponding to the corrected coordinates and the corrected coordinates of the second player when performing some operation. It operates while avoiding contact with the corresponding second ghost G2. In addition, the second user U2 operates while avoiding contact between the second avatar A2 that naturally corresponds to its own coordinates and the first ghost G1 that corresponds to the coordinates of the first user U1 when performing some operation. do.

これにより、現実空間RSにおける第1ユーザU1と第2ユーザU2との接触を、防止することができる。 This makes it possible to prevent contact between the first user U1 and the second user U2 in the real space RS.

なお、本実施形態においては、第1ゴーストG1を第1アバターA1と同じ形状の半透明のアバターとして構成し、第2ゴーストG2を第2アバターA2と同じ形状の半透明のアバターとして構成している。これは、第1ゴーストG1が第1ユーザU1に対応している旨、及び、第2ゴーストG2が第2ユーザU2に対応している旨を示すためである。 In the present embodiment, the first ghost G1 is configured as a translucent avatar having the same shape as the first avatar A1, and the second ghost G2 is configured as a translucent avatar having the same shape as the second avatar A2. There is. This is to indicate that the first ghost G1 corresponds to the first user U1 and that the second ghost G2 corresponds to the second user U2.

また、本実施形態においては、第1ゴーストG1に、第1情報ボードG1aを付加し、第2ゴーストG2に、第2情報ボードG2aを付加している。これは、後述の環境を同期させるための処理におけるトリガーイベント(本発明における第1トリガーイベント)をユーザUが発生させる際に、そのトリガーイベントの発生が認識された際に実行される処理を、ユーザUに直感的に理解させるためである。 Further, in the present embodiment, the first information board G1a is added to the first ghost G1, and the second information board G2a is added to the second ghost G2. This is a process executed when the user U generates a trigger event (first trigger event in the present invention) in the process for synchronizing the environment described later and the occurrence of the trigger event is recognized. This is to make the user U intuitively understand.

しかし、本発明の仮想空間体感システムにおけるアバターがどのユーザに対応しているかを示す情報の表示方法、及び、ゴーストに関連する情報の表示方法は、このような構成に限定されるものではなく、適宜設定してよい。 However, the method of displaying information indicating which user the avatar corresponds to in the virtual space experience system of the present invention and the method of displaying information related to ghosts are not limited to such a configuration. It may be set as appropriate.

そのため、例えば、本実施形態において、第1ゴーストG1及び第2ゴーストG2の形状を第1アバターA1及び第2アバターA2の形状と一致させるにとどめ、情報ボードを省略してもよい。逆に、第1アバターA1及び第2アバターA2の形状に対応した形状を表示せずに、情報ボードのみを表示してもよい。 Therefore, for example, in the present embodiment, the shapes of the first ghost G1 and the second ghost G2 may be limited to match the shapes of the first avatar A1 and the second avatar A2, and the information board may be omitted. On the contrary, only the information board may be displayed without displaying the shapes corresponding to the shapes of the first avatar A1 and the second avatar A2.

[環境を同期させる際及びそれ以後における処理]
次に、図2、図8~図10を参照して、環境を同期させる際及びそれ以後において実行する処理について説明する。
[Processing when synchronizing the environment and after]
Next, with reference to FIGS. 2 and 8 to 10, the processes to be executed when the environment is synchronized and thereafter will be described.

ここで、具体的な処理の内容の説明に先立って、本実施形態における環境を同期させる処理の概要を説明する。 Here, prior to the explanation of the contents of the specific processing, the outline of the processing for synchronizing the environment in the present embodiment will be described.

VRシステムSは、所定のトリガーイベント(本発明における第1トリガーイベント)の発生を認識した際に、第1ユーザU1及び第2ユーザU2の一方の環境に、第1ユーザU1及び第2ユーザU2の一方の環境を同期させる処理を行うように構成されている。 When the VR system S recognizes the occurrence of a predetermined trigger event (first trigger event in the present invention), the first user U1 and the second user U2 are placed in one environment of the first user U1 and the second user U2. It is configured to perform the process of synchronizing one of the environments.

ここで、「環境」とは、仮想空間の座標に基づいて、その座標に位置しているアバターに対応するユーザが認識する画像及び音声の少なくとも一方をいう。また、「環境の同期」とは、複数のアバターに対応する複数のユーザが、同様の環境を認識するようになることをいう。 Here, the "environment" means at least one of the image and the sound recognized by the user corresponding to the avatar located at the coordinates based on the coordinates of the virtual space. Further, "environment synchronization" means that a plurality of users corresponding to a plurality of avatars will recognize the same environment.

本実施形態では、例えば、図9に示すように、第2アバターA2が第1ユーザU1に対応している第1ゴーストG1に触れることが、そのトリガーイベントとして設定されている。 In the present embodiment, for example, as shown in FIG. 9, the second avatar A2 touching the first ghost G1 corresponding to the first user U1 is set as the trigger event.

そして、そのトリガーイベントの発生が認識された際には、図10に示すように、第2ユーザU2の座標の移動に関わらず、第2ユーザU2に対応する第2アバターA2の座標は、第1アバターA1の座標に隣接する座標へと移動する。具体的には、第2アバターA2は、第1フロアF1から、第2フロアF2の第1アバターA1に隣接する座標へと移動する。 Then, when the occurrence of the trigger event is recognized, as shown in FIG. 10, the coordinates of the second avatar A2 corresponding to the second user U2 are the second, regardless of the movement of the coordinates of the second user U2. 1 Move to the coordinates adjacent to the coordinates of the avatar A1. Specifically, the second avatar A2 moves from the first floor F1 to the coordinates adjacent to the first avatar A1 on the second floor F2.

これにより、VRシステムSでは、そのトリガーイベントの発生が認識された時点以後においては、第1ユーザU1の環境と第2ユーザU2の環境とが同期して、第1ユーザU1及び第2ユーザU2は、同様の環境を体感することができるようになっている。 As a result, in the VR system S, after the occurrence of the trigger event is recognized, the environment of the first user U1 and the environment of the second user U2 are synchronized with each other, and the first user U1 and the second user U2 are synchronized. Is able to experience a similar environment.

なお、以下においては、第1アバターA1に対応する第1ユーザU1が、仮想空間VSの第2フロアF2よりもさらに上空に存在している虹VS3を、第2ユーザU2とともに眺めたい旨を第2ユーザU2にメッセージ機能などを介して伝えた際に、第2ユーザU2が第1ユーザU1と環境を同期しようとする(すなわち、自らも虹VS3を眺めようとする)際における処理を説明する。 In the following, the first user U1 corresponding to the first avatar A1 wants to view the rainbow VS3 existing above the second floor F2 of the virtual space VS together with the second user U2. Explain the processing when the second user U2 tries to synchronize the environment with the first user U1 (that is, he / she also tries to look at the rainbow VS3) when the two users U2 are informed via the message function or the like. ..

この処理においては、まず、サーバ3のトリガーイベント認識部33は、トリガーイベントの発生を認識したか否かを判断する(図8/STEP300)。 In this process, first, the trigger event recognition unit 33 of the server 3 determines whether or not the occurrence of the trigger event has been recognized (FIG. 8 / STEP300).

具体的には、まず、トリガーイベント認識部33は、図9に示すように、仮想空間VSで、第2ユーザU2に対応する第2アバターA2が、第1ユーザU1に対応する第1アバターA1に触れる姿勢となったか否かを判断する。そして、第2アバターA2が第1アバターA1に触れる姿勢となった時には、トリガーイベント認識部33は、トリガーイベントが発生したと認識する。 Specifically, first, as shown in FIG. 9, the trigger event recognition unit 33 has a second avatar A2 corresponding to the second user U2 in the virtual space VS, and a first avatar A1 corresponding to the first user U1. Judge whether or not you are in a position to touch. Then, when the second avatar A2 is in a posture of touching the first avatar A1, the trigger event recognition unit 33 recognizes that the trigger event has occurred.

トリガーイベントの発生を認識しなかった場合(STEP300でNOの場合)、STEP300に戻り、再度、判断が実行される。この処理は、所定の制御周期で繰り返される。 If the occurrence of the trigger event is not recognized (NO in STEP300), the process returns to STEP300 and the determination is executed again. This process is repeated at a predetermined control cycle.

一方、トリガーイベントの発生を認識した場合(STEP300でYESの場合)、サーバ3のアバター座標決定部34は、第2アバターA2の座標を、第1アバターA1の座標に隣接する座標に移動させる(図5/STEP301)。 On the other hand, when the occurrence of the trigger event is recognized (YES in STEP300), the avatar coordinate determination unit 34 of the server 3 moves the coordinates of the second avatar A2 to the coordinates adjacent to the coordinates of the first avatar A1 (when it is YES). FIG. 5 / STEP301).

具体的には、アバター座標決定部34は、第1アバターA1の座標だけでなく姿勢も参照して、第1アバターA1の側方、前方又は後方に位置する座標(すなわち、隣接する座標)を認識し、その座標に第2アバターA2を移動させる。 Specifically, the avatar coordinate determination unit 34 refers not only to the coordinates of the first avatar A1 but also to the posture, and determines the coordinates (that is, adjacent coordinates) located sideways, forward or backward of the first avatar A1. Recognize and move the second avatar A2 to that coordinate.

この移動は、第2ユーザU2の座標の移動に基づく第2アバターA2の座標の移動とは、独立して行われる。なお、これにより、第2ユーザU2の座標と第2アバターA2の座標との対応関係にズレが生じる。 This movement is performed independently of the movement of the coordinates of the second avatar A2 based on the movement of the coordinates of the second user U2. As a result, the correspondence between the coordinates of the second user U2 and the coordinates of the second avatar A2 is deviated.

本実施形態においては、図9に示すように、第1フロアF1に位置している第2アバターA2が、図10に示すように、第2フロアF2であって、第1アバターA1の左隣りに位置するように、瞬間的に移動する。 In the present embodiment, as shown in FIG. 9, the second avatar A2 located on the first floor F1 is the second floor F2 as shown in FIG. 10, and is to the left of the first avatar A1. Moves momentarily so that it is located at.

なお、移動の経緯(例えば、移動にかかる時間、移動中の経路等)は、適宜設定してよい。例えば、第1ユーザU1及び第2ユーザU2とは異なる第3ユーザが存在する場合には、第2アバターA2の移動経路が認識可能なように、第2アバターA2の移動速度をある程度ゆっくりとした速度に設定することによって、トリガーイベントの発生が認識された際における座標の移動を、第3ユーザに認識させることができるようになる。 The process of movement (for example, the time required for movement, the route during movement, etc.) may be appropriately set. For example, when there is a third user different from the first user U1 and the second user U2, the movement speed of the second avatar A2 is slowed down to some extent so that the movement route of the second avatar A2 can be recognized. By setting the speed, it becomes possible for the third user to recognize the movement of the coordinates when the occurrence of the trigger event is recognized.

次に、サーバ3の表示画像生成部31は、第1ゴーストG1及び第2ゴーストG2を消去する(図8/STEP302)。 Next, the display image generation unit 31 of the server 3 erases the first ghost G1 and the second ghost G2 (FIG. 8 / STEP302).

本実施形態においては、STEP301における第2アバターA2の移動によって、前述の仮想空間を拡張する処理によって生じた、第1アバターA1の座標と第2アバターA2の座標との対応関係におけるズレが解消される。すなわち、その移動後には、第1アバターA1の座標と第2アバターA2の座標との対応関係が、そのズレが生じる前の対応関係(すなわち、第1ユーザU1の座標と第2ユーザU2の座標との対応関係に一致したもの)に戻る。 In the present embodiment, the movement of the second avatar A2 in STEP 301 eliminates the deviation in the correspondence between the coordinates of the first avatar A1 and the coordinates of the second avatar A2 caused by the process of expanding the virtual space described above. To. That is, after the movement, the correspondence between the coordinates of the first avatar A1 and the coordinates of the second avatar A2 is the correspondence before the deviation occurs (that is, the coordinates of the first user U1 and the coordinates of the second user U2). (The one that matches the correspondence with).

そのため、このSTEP302における処理を実行した後においては、第1ゴーストG1及び第2ゴーストG2が存在していなくても、意図しない接触が抑制されることになる。むしろ、第1ゴーストG1及び第2ゴーストG2が存在している場合には、逆に意図しない接触を発生させてしまうおそれがある。そこで、本実施形態においては、このように、不要となった第1ゴーストG1及び第2ゴーストG2を消去する処理を実行している。 Therefore, after executing the process in STEP 302, unintended contact is suppressed even if the first ghost G1 and the second ghost G2 do not exist. Rather, when the first ghost G1 and the second ghost G2 are present, there is a risk of causing unintended contact. Therefore, in the present embodiment, the process of erasing the unnecessary first ghost G1 and second ghost G2 is executed in this way.

なお、STEP302における処理の実行後においても、第1アバターA1の座標と第2アバターA2の座標との対応関係と、第1ユーザU1の座標と第2ユーザU2の対応座標との関係とが、一致したものに戻らない場合等には、必要に応じて、第1ゴーストG1及び第2ゴーストG2の少なくとも一方を、引き続き存在させるようにするとよい。 Even after the processing in STEP 302 is executed, the correspondence between the coordinates of the first avatar A1 and the coordinates of the second avatar A2 and the correspondence between the coordinates of the first user U1 and the coordinates of the second user U2 remain unchanged. If it does not return to the same one, it is advisable to continue to have at least one of the first ghost G1 and the second ghost G2, if necessary.

次に、サーバ3のアバター座標決定部34は、ユーザ情報認識部32が認識した第1ユーザU1及び第2ユーザU2の現実空間RSにおける座標及び姿勢に基づいて、第1アバターA1及び第1ゴーストG1、並びに、第2アバターA2及び第2ゴーストG2の仮想空間VSにおける座標及び姿勢を決定する(図8/STEP303)。 Next, the avatar coordinate determination unit 34 of the server 3 determines the first avatar A1 and the first ghost based on the coordinates and attitudes of the first user U1 and the second user U2 in the real space RS recognized by the user information recognition unit 32. The coordinates and orientations of G1 and the second avatar A2 and the second ghost G2 in the virtual space VS are determined (FIG. 8 / STEP303).

具体的には、アバター座標決定部34は、引き続き、第1ユーザの座標及び姿勢に基づいて決定された座標及び姿勢を、前述の仮想空間VSを拡張させる処理において発生したズレの内容(すなわち、補正方向及び補正量)に基づいて補正して、第1アバターA1の座標及び姿勢を決定する。 Specifically, the avatar coordinate determination unit 34 continues to shift the coordinates and attitude determined based on the coordinates and attitude of the first user in the process of expanding the virtual space VS described above (that is, the content of the deviation (that is,). The coordinates and posture of the first avatar A1 are determined by making corrections based on the correction direction and correction amount).

また、アバター座標決定部34は、第2ユーザの座標及び姿勢に基づいて決定された座標及び姿勢を、認識されたトリガーイベントの種類に応じて予め定められているズレの内容(すなわち、補正方向及び補正量)に基づいて補正して、第2アバターA2の座標及び姿勢を決定する。 Further, the avatar coordinate determination unit 34 determines the coordinates and attitude determined based on the coordinates and attitude of the second user, and the content of the deviation (that is, the correction direction) predetermined according to the type of the recognized trigger event. And the correction amount), the coordinates and the posture of the second avatar A2 are determined.

本実施形態においては、アバター座標決定部34は、第2ユーザU2の座標に基づく第2アバターA2の座標を、第1フロアF1に対する第2フロアF2の高さの分だけ上方向に移動させ、且つ、トリガーイベントの発生が認識された時点における第2アバターA2の座標から第1アバターA1の左隣りの座標まで水平方向に移動させたものを、トリガーイベントの発生が認識された時点以後における第2アバターA2の座標として決定する。 In the present embodiment, the avatar coordinate determination unit 34 moves the coordinates of the second avatar A2 based on the coordinates of the second user U2 upward by the height of the second floor F2 with respect to the first floor F1. In addition, the one moved horizontally from the coordinates of the second avatar A2 at the time when the occurrence of the trigger event is recognized to the coordinates to the left of the first avatar A1 is the second after the time when the occurrence of the trigger event is recognized. 2 Determined as the coordinates of the avatar A2.

また、アバター座標決定部34は、第2ユーザU2の姿勢に基づく第2アバターA2の姿勢を、そのまま、トリガーイベントの発生が認識された時点以後における第2アバターA2の姿勢として決定する。 Further, the avatar coordinate determination unit 34 determines the posture of the second avatar A2 based on the posture of the second user U2 as it is as the posture of the second avatar A2 after the time when the occurrence of the trigger event is recognized.

次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、第1ユーザU1に認識させる画像及び音声を、第1アバターA1の仮想空間VSにおける座標及び姿勢に基づいて決定し、第2ユーザU2に認識させる画像及び音声を、第2アバターA2の仮想空間VSにおける座標及び姿勢に基づいて決定する(図8/STEP304)。 Next, the virtual space image determination unit 35 and the virtual space voice determination unit 36 of the server 3 determine the image and sound to be recognized by the first user U1 based on the coordinates and the posture of the first avatar A1 in the virtual space VS. , The image and sound to be recognized by the second user U2 are determined based on the coordinates and the posture of the second avatar A2 in the virtual space VS (FIG. 8 / STEP304).

次に、ユーザUの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図8/STEP305)。 Next, the HMD 4 worn by the user U displays the determined image on the monitor 41 and generates voice on the speaker 42 (FIG. 8 / STEP305).

次に、サーバ3のユーザ情報認識部32は、第1ユーザU1又は第2ユーザU2の現実空間RSにおける座標の移動又は姿勢の変化が認識されたか否かを判断する(図8/STEP306)。 Next, the user information recognition unit 32 of the server 3 determines whether or not the movement of coordinates or the change in posture in the real space RS of the first user U1 or the second user U2 is recognized (FIG. 8 / STEP306).

第1ユーザU1又は第2ユーザU2の現実空間RSにおける座標の移動又は姿勢の変化が認識された場合(STEP306でYESの場合)、STEP303に戻り、再度、STEP303以降の処理が実行される。 When the movement of coordinates or the change of posture in the real space RS of the first user U1 or the second user U2 is recognized (YES in STEP 306), the process returns to STEP 303 and the processing after STEP 303 is executed again.

一方、第1ユーザU1又は第2ユーザU2の現実空間RSにおける座標の移動又は姿勢の変化が認識されなかった場合(STEP306でNOの場合)、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図8/STEP307)。 On the other hand, when the movement of coordinates or the change of posture in the real space RS of the first user U1 or the second user U2 is not recognized (NO in STEP306), the server 3 recognizes the signal instructing the end of processing. It is determined whether or not it has been done (Fig. 8 / STEP307).

終了を指示する信号を認識できなかった場合(STEP307でNOの場合)、STEP306に戻り、再度、STEP306以降の処理が実行される。 If the signal indicating the end cannot be recognized (NO in STEP307), the process returns to STEP306, and the processing after STEP306 is executed again.

一方、終了を指示する信号を認識した場合(STEP307でYESの場合)、VRシステムSは、今回の処理を終了する。 On the other hand, when the signal instructing the end is recognized (YES in STEP307), the VR system S ends the current process.

以上説明したように、VRシステムSでは、トリガーイベントの発生が認識された際には、アバター座標決定部34は、第2アバターA2の座標を、第1アバターA1の座標に隣接する座標に移動させている。 As described above, in the VR system S, when the occurrence of the trigger event is recognized, the avatar coordinate determination unit 34 moves the coordinates of the second avatar A2 to the coordinates adjacent to the coordinates of the first avatar A1. I'm letting you.

ここで、第1ユーザU1及び第2ユーザU2に認識させる仮想空間VSの画像及び音声は、第1アバターA1及び第2アバターA1の座標に基づいて決定される。そのため、アバター同士の座標が一致又は隣接している場合には、それらのアバターに対応する各々のユーザの認識する仮想空間VSの画像及び音声も、一致又は類似した画像及び音声(すなわち、同様の画像及び音声)になる。 Here, the image and sound of the virtual space VS to be recognized by the first user U1 and the second user U2 are determined based on the coordinates of the first avatar A1 and the second avatar A1. Therefore, when the coordinates of the avatars match or are adjacent to each other, the images and sounds of the virtual space VS recognized by each user corresponding to those avatars also match or have similar images and sounds (that is, similar images and sounds). Image and sound).

したがって、VRシステムSによれば、トリガーイベントの発生が認識された際には、各々のユーザの認識する仮想空間の画像及び音声も一致又は隣接した画像及び音声にすることができるので、それまで仮想空間で異なる環境を体感していた第1ユーザU1及び第2ユーザU2が、ほぼ同じ環境を体感することができるようになる。 Therefore, according to the VR system S, when the occurrence of the trigger event is recognized, the image and sound of the virtual space recognized by each user can also be the same or adjacent images and sounds, so that until then. The first user U1 and the second user U2 who have experienced different environments in the virtual space will be able to experience almost the same environment.

なお、本実施形態においては、第2ユーザU2が自らの環境を第1ユーザU1の環境に同期させる場合について説明した。しかし、本発明の仮想空間体感システムは、そのような構成に限定されるものではなく、トリガーイベントの発生が認識された際に第1ユーザ及び第2ユーザの一方の環境を、第1ユーザ及び第2ユーザの他方の環境に同期させるものであればよい。 In this embodiment, the case where the second user U2 synchronizes his / her environment with the environment of the first user U1 has been described. However, the virtual space experience system of the present invention is not limited to such a configuration, and when the occurrence of a trigger event is recognized, the environment of one of the first user and the second user is set to the first user and the environment of the second user. Anything that synchronizes with the other environment of the second user may be used.

そのため、例えば、本実施形態において、第1アバターA1が第2ユーザU2に対応する第2ゴーストG2に触れた場合にも、第2アバターA2の座標を第1アバターA1の座標に隣接する座標に移動させるように構成してもよい。すなわち、第2アバターA2が自ら第1アバターA1の座標に一致する座標又は隣接する座標に移動するのではなく、第1アバターA1が第2アバターA2の座標を自らの座標に一致する座標又は隣接する座標に呼び寄せるように構成してもよい。 Therefore, for example, in the present embodiment, even when the first avatar A1 touches the second ghost G2 corresponding to the second user U2, the coordinates of the second avatar A2 become the coordinates adjacent to the coordinates of the first avatar A1. It may be configured to move. That is, the second avatar A2 does not move to the coordinates matching or adjacent to the coordinates of the first avatar A1 by itself, but the first avatar A1 matches the coordinates of the second avatar A2 to the coordinates or adjacent coordinates. It may be configured to be called to the coordinates to be used.

また、例えば、本実施形態において、第2アバターA2が第1ユーザU1に対応する第1ゴーストG1に触れた場合に、第1アバターA1が自ら第2アバターA2の座標に一致する座標又は隣接する座標に移動するように構成してもよいし、第1アバターA1が第2アバターA2の座標を自らの座標に一致する座標又は隣接する座標に呼び寄せるように構成してもよい。 Further, for example, in the present embodiment, when the second avatar A2 touches the first ghost G1 corresponding to the first user U1, the first avatar A1 has coordinates that match or are adjacent to the coordinates of the second avatar A2. It may be configured to move to the coordinates, or the first avatar A1 may be configured to call the coordinates of the second avatar A2 to the coordinates matching or adjacent to its own coordinates.

なお、自らの座標が他のユーザの座標に一致する座標又は隣接する座標へ移動する処理を行う構成と、他のユーザの座標を自らの座標に一致する座標又は隣接する座標に呼び寄せる処理を行う構成とを同時に実装する場合には、トリガーイベントとなる動作を、行われる処理に応じて異ならせればよい。 In addition, a configuration is performed in which one's own coordinates are moved to coordinates that match or are adjacent to the coordinates of another user, and a process is performed in which the coordinates of another user are called to coordinates that match or are adjacent to one's own coordinates. When implementing the configuration at the same time, the operation that becomes the trigger event may be different depending on the processing to be performed.

具体的には、例えば、自らに対応するアバターの右手で他のユーザに対応するアバターに触れた場合には、自らの座標が他のユーザの座標に一致する座標又は隣接する座標へ移動する処理を実行し、自らに対応するアバターの左手で他のユーザに対応するアバターに触れた場合には、他のユーザの座標を自らの座標に一致する座標又は隣接する座標に呼び寄せる処理を実行するというように構成するとよい。 Specifically, for example, when the avatar corresponding to another user is touched with the right hand of the avatar corresponding to oneself, the process of moving one's own coordinates to the coordinates matching the coordinates of another user or the adjacent coordinates. When the left hand of the avatar corresponding to itself touches the avatar corresponding to another user, the process of calling the coordinates of the other user to the coordinates matching the own coordinates or the adjacent coordinates is executed. It should be configured as follows.

また、本実施形態においては、トリガーイベントの発生が認識された場合に、第2アバターA2の座標を第1アバターA1の座標に一致する座標ではなく、隣接する座標に移動させる処理を行っている。これは、第2アバターA2の座標が移動した際に、一方のユーザの認識する画像に他方のユーザに対応するアバターを含ませやすくして、一方のユーザに他方のユーザが自らの近傍に移動してきたことを認識させやすくするためである。 Further, in the present embodiment, when the occurrence of the trigger event is recognized, the process of moving the coordinates of the second avatar A2 to the adjacent coordinates instead of the coordinates matching the coordinates of the first avatar A1 is performed. .. This makes it easier for one user to include the avatar corresponding to the other user in the image recognized by one user when the coordinates of the second avatar A2 move, and the other user moves to the vicinity of the other user. This is to make it easier to recognize what you have done.

しかし、本発明は、そのような構成に限定されるものではなく、一方のアバターを移動させる座標を、他方のアバターの座標と一致させてもよい。このように構成した場合には、環境の同期の度合いを、隣接する座標に移動させた場合に比べて、さらに高めることができる。 However, the present invention is not limited to such a configuration, and the coordinates for moving one avatar may be matched with the coordinates of the other avatar. With such a configuration, the degree of synchronization of the environment can be further increased as compared with the case of moving to adjacent coordinates.

また、本実施形態においては、トリガーイベントの発生が認識された以後においては、第2アバターA2は、継続して第2フロアF2に位置する。すなわち、トリガーイベントの発生が認識された際における移動によって生じたズレに基づいて、第2ユーザU2の座標と第2アバターA2の座標との対応関係にズレが生じた状態が継続されている。 Further, in the present embodiment, after the occurrence of the trigger event is recognized, the second avatar A2 is continuously located on the second floor F2. That is, based on the deviation caused by the movement when the occurrence of the trigger event is recognized, the state in which the correspondence between the coordinates of the second user U2 and the coordinates of the second avatar A2 is displaced continues.

しかし、本発明は、そのような構成に限定されるものではなく、トリガーイベントの発生が認識された際における移動によって生じたズレを、その後に解消するように構成してもよい。 However, the present invention is not limited to such a configuration, and may be configured to eliminate the deviation caused by the movement when the occurrence of the trigger event is recognized.

そのため、例えば、トリガーイベントが継続している期間だけ(例えば、上記実施形態では、第2アバターA2が第1アバターA1に触れている期間だけ)、又は、トリガーイベントの発生が認識されてから所定の期間だけ、アバターの座標を移動させ、その期間の経過後には、アバターの座標を、トリガーイベントの発生が認識される前における座標に戻すように構成してもよい。 Therefore, for example, only for the period during which the trigger event continues (for example, in the above embodiment, only for the period during which the second avatar A2 is in contact with the first avatar A1), or after the occurrence of the trigger event is recognized, it is predetermined. The coordinates of the avatar may be moved by the period of, and after the period of time, the coordinates of the avatar may be returned to the coordinates before the occurrence of the trigger event is recognized.

[第2実施形態]
以下、図2、図11~図15を参照して、第2実施形態に係る仮想空間体感システムであるVRシステムSについて説明する。
[Second Embodiment]
Hereinafter, the VR system S, which is a virtual space experience system according to the second embodiment, will be described with reference to FIGS. 2 and 11 to 15.

なお、本実施形態のVRシステムSは、環境を同期させる際及びそれ以後において実行する処理を除き、第1実施形態のVRシステムSと同様の構成を備えている。 The VR system S of the present embodiment has the same configuration as the VR system S of the first embodiment except for the processing to be executed when the environment is synchronized and thereafter.

そのため、以下の説明においては、環境を同期させる際及びそれ以後において実行する処理についてのみ説明する。また、第1実施形態のVRシステムSの構成と同一の構成又は対応する構成については、同一の符号を付すとともに、詳細な説明は省略する。 Therefore, in the following description, only the processing to be executed when synchronizing the environment and after that will be described. Further, the same configuration or the corresponding configuration as the configuration of the VR system S of the first embodiment are designated by the same reference numerals, and detailed description thereof will be omitted.

[環境を同期させる際及びそれ以後における処理]
以下に、図2、図11~図15を参照して、環境を同期させる際及びそれ以後において実行する処理について説明する。
[Processing when synchronizing the environment and after]
Hereinafter, the processes to be executed when the environment is synchronized and thereafter will be described with reference to FIGS. 2 and 11 to 15.

ここで、具体的な処理の内容の説明に先立って、本実施形態における環境を同期させる処理の概要を説明する。 Here, prior to the explanation of the contents of the specific processing, the outline of the processing for synchronizing the environment in the present embodiment will be described.

VRシステムSは、所定のトリガーイベント(本発明における第1トリガーイベント)の発生を認識した際に、第1ユーザU1及び第2ユーザU2の一方の環境に、第1ユーザU1及び第2ユーザU2の一方の環境を同期させる処理を行うように構成されている。 When the VR system S recognizes the occurrence of a predetermined trigger event (first trigger event in the present invention), the first user U1 and the second user U2 are placed in one environment of the first user U1 and the second user U2. It is configured to perform the process of synchronizing one of the environments.

本実施形態では、例えば、図12に示すように、第2アバターA2が第1ユーザU1に対応している第1ゴーストG1に触れることが、そのトリガーイベントとして設定されている。 In the present embodiment, for example, as shown in FIG. 12, the second avatar A2 touching the first ghost G1 corresponding to the first user U1 is set as the trigger event.

そして、そのトリガーイベントの発生が認識された際には、図13に示すように、第2ユーザU2の座標に関わらず、第2ユーザU2が認識する環境は、第1ユーザU1が認識している環境と一致したものとなる。具体的には、第2ユーザU2が認識する環境は、第2アバターA2の座標に基づくもの(図14参照)から、第1アバターA1の座標に基づくもの(図15参照)に変化する。 Then, when the occurrence of the trigger event is recognized, as shown in FIG. 13, the environment recognized by the second user U2 is recognized by the first user U1 regardless of the coordinates of the second user U2. It will be consistent with your environment. Specifically, the environment recognized by the second user U2 changes from one based on the coordinates of the second avatar A2 (see FIG. 14) to one based on the coordinates of the first avatar A1 (see FIG. 15).

これにより、VRシステムSでは、第1ユーザU1の環境と第2ユーザU2の環境とを同期させて、第1ユーザU1及び第2ユーザU2が、同様の環境を体感することができるようになっている。 As a result, in the VR system S, the environment of the first user U1 and the environment of the second user U2 are synchronized so that the first user U1 and the second user U2 can experience the same environment. ing.

なお、以下においては、第1アバターA1に対応する第1ユーザU1が、仮想空間VSの第2フロアF2よりもさらに上空に存在している虹VS3を、第2ユーザU2とともに眺めたい旨を第2ユーザU2にメッセージ機能などを介して伝えた際に、第2ユーザU2が第1ユーザU1と環境を同期しようとする(すなわち、自らも虹VS3を眺めようとする)際における処理を説明する。 In the following, the first user U1 corresponding to the first avatar A1 wants to view the rainbow VS3 existing above the second floor F2 of the virtual space VS together with the second user U2. Explain the processing when the second user U2 tries to synchronize the environment with the first user U1 (that is, he / she also tries to look at the rainbow VS3) when the two users U2 are informed via the message function or the like. ..

なお、図14に示すように、この処理の開始時の状態においては、第2ユーザU2は、仮想空間VSの第2フロアF2にいる第1アバターA1を見上げている状態の画像を認識しているものとする。 As shown in FIG. 14, in the state at the start of this process, the second user U2 recognizes the image in the state of looking up at the first avatar A1 on the second floor F2 of the virtual space VS. It is assumed that there is.

この処理においては、まず、サーバ3のトリガーイベント認識部33は、トリガーイベントの発生を認識したか否かを判断する(図11/STEP400)。 In this process, first, the trigger event recognition unit 33 of the server 3 determines whether or not the occurrence of the trigger event has been recognized (FIG. 11 / STEP400).

具体的には、まず、トリガーイベント認識部33は、図12に示すように、仮想空間VSで、第2ユーザU2に対応する第2アバターA2が、第1ユーザU1に対応する第1アバターA1に触れる姿勢となったか否かを判断する。そして、第2アバターA2が第1アバターA1に触れる姿勢となった時には、トリガーイベント認識部33は、トリガーイベントが発生したと認識する。 Specifically, first, as shown in FIG. 12, the trigger event recognition unit 33 has a second avatar A2 corresponding to the second user U2 in the virtual space VS, and a first avatar A1 corresponding to the first user U1. Judge whether or not you are in a position to touch. Then, when the second avatar A2 is in a posture of touching the first avatar A1, the trigger event recognition unit 33 recognizes that the trigger event has occurred.

トリガーイベントの発生を認識した場合(STEP400でYESの場合)、サーバ3のアバター座標決定部34は、第2アバターA2及び第2ゴーストG2の座標を固定する(図11/STEP401)。 When the occurrence of the trigger event is recognized (YES in STEP 400), the avatar coordinate determination unit 34 of the server 3 fixes the coordinates of the second avatar A2 and the second ghost G2 (FIG. 11 / STEP 401).

本実施形態では、この後に実行されるSTEP402~STEP404の処理(すなわち、環境を同期させるための処理)において、第2アバターA2及び第2ゴーストG2に対応する第2ユーザU2の認識する画像及び音声が、第1アバターA1の座標に基づいて決定されたものにする処理が実行される。 In the present embodiment, in the subsequent STEP402 to STEP404 processes (that is, processes for synchronizing the environment), the image and sound recognized by the second user U2 corresponding to the second avatar A2 and the second ghost G2. However, the process of making it determined based on the coordinates of the first avatar A1 is executed.

そのため、その処理の実行されている最中に第2アバターA2が移動できてしまうと、環境を同期させるための処理の終了後に、意図せず第2アバターA2の座標が移動している状態となる。ひいては、その処理の終了後に、その第2アバターA2の座標に基づいて画像及び音声を認識する第2ユーザU2の没入感を阻害してしまうおそれがある。 Therefore, if the second avatar A2 can be moved while the process is being executed, the coordinates of the second avatar A2 are unintentionally moved after the process for synchronizing the environment is completed. Become. As a result, after the processing is completed, there is a possibility that the immersive feeling of the second user U2 who recognizes the image and the sound based on the coordinates of the second avatar A2 may be hindered.

また、その処理の実行されている最中に第2ゴーストG2が移動できてしまうと、環境を同期させるための処理の終了後に、意図せず第2ゴーストG2の座標が移動している状態となる。ひいては、その処理の終了後に、第1ユーザU1の認識している画像において、突然第2ゴーストG2の位置が変わってしまうことになり、第1ユーザU1の没入感を阻害してしまうおそれがある。 Further, if the second ghost G2 can be moved while the process is being executed, the coordinates of the second ghost G2 are unintentionally moved after the process for synchronizing the environment is completed. Become. As a result, after the processing is completed, the position of the second ghost G2 suddenly changes in the image recognized by the first user U1, which may hinder the immersive feeling of the first user U1. ..

そこで、VRシステムSでは、トリガーイベントの発生を認識した場合(すなわち、環境を同期させる処理の実行が開始される際には)、このSTEP401の処理を実行して、第2アバターA2及び第2ゴーストG2の座標を固定することによって、そのようにして没入感が阻害されてしまうことを抑制している。 Therefore, when the VR system S recognizes the occurrence of the trigger event (that is, when the execution of the process for synchronizing the environment is started), the process of STEP401 is executed to execute the second avatar A2 and the second avatar. By fixing the coordinates of the ghost G2, it is possible to prevent the immersive feeling from being hindered in this way.

ただし、図12及び図13に示すように、その処理の実行されている最中であっても、第2アバターA2及び第2ゴーストG2の姿勢は、引き続き第2アバターA2の姿勢に応じて変化する。 However, as shown in FIGS. 12 and 13, the postures of the second avatar A2 and the second ghost G2 continue to change according to the posture of the second avatar A2 even while the processing is being executed. do.

これは、姿勢まで固定されてしまうと、環境を同期させるための処理の終了後に、第2ユーザU2の姿勢と第2アバターA2の姿勢及び第2ゴーストG2の姿勢との対応関係にズレが生じてしまうおそれがあり、その一方で、環境を同期させるための処理の最中に、第2ゴーストG2の姿勢が変化したとしても、第1ユーザU1の没入感を阻害しないためである。 This is because if the posture is fixed, the correspondence between the posture of the second user U2, the posture of the second avatar A2, and the posture of the second ghost G2 will be different after the processing for synchronizing the environment is completed. On the other hand, even if the posture of the second ghost G2 changes during the process for synchronizing the environment, the immersive feeling of the first user U1 is not hindered.

ただし、第2アバターA2の姿勢も、第1アバターA1の姿勢と一致するように構成してもよい。このように構成した場合には、第2ユーザU2の認識する画像及び音声が第1ユーザU1の認識する画像及び音声とさらに一致したものになるので、第2ユーザU2は、第1ユーザU1とさらに同期した環境を体感することができるようになる。 However, the posture of the second avatar A2 may also be configured to match the posture of the first avatar A1. In this configuration, the image and sound recognized by the second user U2 further match the image and sound recognized by the first user U1, so that the second user U2 and the first user U1 You will be able to experience a more synchronized environment.

なお、このように第2アバターA2及び第2ゴーストG2の座標を固定した状態で、第2ユーザU2が移動してしまうと、第2ユーザU2の座標と第2アバターA2の座標及び第2ゴーストG2の座標との対応関係に、意図せずズレが生じてしまうことになる。ひいては、意図しない接触を誘発する要因が発生してしまう。 If the second user U2 moves with the coordinates of the second avatar A2 and the second ghost G2 fixed in this way, the coordinates of the second user U2, the coordinates of the second avatar A2, and the second ghost The correspondence with the coordinates of G2 will be unintentionally deviated. As a result, a factor that induces unintended contact occurs.

そこで、図15に示すように、VRシステムSでは、環境同期処理を実行している旨の表示とともに、移動をしないように注意する旨のメッセージを、第2ユーザU2の認識する画像に表示する。これにより、VRシステムSでは、そのようなズレの発生を抑制している。 Therefore, as shown in FIG. 15, in the VR system S, a message indicating that the environment synchronization process is being executed and a message indicating that the user is careful not to move is displayed on the image recognized by the second user U2. .. As a result, the VR system S suppresses the occurrence of such deviation.

実行する処理の説明に戻り、STEP401の処理を実行した後には、サーバ3のアバター座標決定部34は、ユーザ情報認識部32が認識した第1ユーザU1の現実空間RSにおける座標及び姿勢に基づいて、第1アバターA1及び第1ゴーストG1の仮想空間VSにおける座標及び姿勢を決定する(図11/STEP402)。 Returning to the explanation of the process to be executed, after executing the process of STEP 401, the avatar coordinate determination unit 34 of the server 3 is based on the coordinates and the posture of the first user U1 recognized by the user information recognition unit 32 in the real space RS. , The coordinates and postures of the first avatar A1 and the first ghost G1 in the virtual space VS are determined (FIG. 11 / STEP402).

次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、第1ユーザU1及び第2ユーザU2に認識させる画像及び音声を、第1アバターA1の仮想空間VSにおける座標及び姿勢に基づいて決定する(図5/STEP403)。 Next, the virtual space image determination unit 35 and the virtual space voice determination unit 36 of the server 3 transmit the images and sounds to be recognized by the first user U1 and the second user U2 in the coordinates and posture of the first avatar A1 in the virtual space VS. It is determined based on (Fig. 5 / STEP403).

具体的には、仮想空間画像決定部35及び仮想空間音声決定部36は、第1ユーザU1に認識させる画像及び音声を、第1アバターA1の座標及び姿勢に基づいて決定する。また、仮想空間画像決定部35及び仮想空間音声決定部36は、第2ユーザU2に認識させる画像及び音声を、第1アバターA1の座標、及び、第2アバターA2の姿勢に基づいて決定する。 Specifically, the virtual space image determination unit 35 and the virtual space voice determination unit 36 determine the image and voice to be recognized by the first user U1 based on the coordinates and posture of the first avatar A1. Further, the virtual space image determination unit 35 and the virtual space sound determination unit 36 determine the image and sound to be recognized by the second user U2 based on the coordinates of the first avatar A1 and the posture of the second avatar A2.

このようにして決定された第1ユーザU1に認識させる画像及び音声は、第1アバターA1の座標及び姿勢に基づいて、仮想空間VSの第2フロアF2で、上空にある虹VS3を眺めているものになる。 The image and sound to be recognized by the first user U1 determined in this way are viewing the rainbow VS3 in the sky on the second floor F2 of the virtual space VS based on the coordinates and the posture of the first avatar A1. Become a thing.

また、このようにして決定された第2ユーザU2に認識させる画像及び音声は、第1アバターA1の座標よりも第1アバターA1から見て後ろ側となる座標に位置している場合に認識される画像及び音声となる。具体的には、図15に示すように、仮想空間VSの第2フロアF2で、上空にある虹VS3を、第1アバターA1の背後から眺めているものになる。 Further, the image and the sound to be recognized by the second user U2 determined in this way are recognized when they are located at coordinates that are behind the coordinates of the first avatar A1 when viewed from the first avatar A1. Images and sounds. Specifically, as shown in FIG. 15, the rainbow VS3 in the sky is viewed from behind the first avatar A1 on the second floor F2 of the virtual space VS.

なお、本実施形態では、第2ユーザU2が第1ユーザU1とともに環境を楽しむことを考慮しているので、第1アバターA1(ひいては、第1ユーザU1)を認識できるように、この処理において第2ユーザU2に認識させる画像及び音声の基準となる座標を、第1アバターA1の座標の後ろ側となる座標(すなわち、隣接する座標)としている。 In this embodiment, since it is considered that the second user U2 enjoys the environment together with the first user U1, the first avatar A1 (and by extension, the first user U1) can be recognized in this process. The coordinates that are the reference of the image and the sound to be recognized by the two users U2 are the coordinates that are behind the coordinates of the first avatar A1 (that is, the adjacent coordinates).

しかし、第2ユーザU2が第1ユーザU1の体感している環境とさらに近い環境を体感したいというような場合には、基準となる座標を、第1アバターA1の座標と一致させるようにするとよい。また、基準となる姿勢も第1アバターA1と一致させた場合には、第2ユーザU2は、第1ユーザU1の体感している環境と同じ環境を体感することができるようになる。 However, when the second user U2 wants to experience an environment closer to the environment experienced by the first user U1, it is preferable to match the reference coordinates with the coordinates of the first avatar A1. .. Further, when the reference posture is also matched with the first avatar A1, the second user U2 can experience the same environment as that of the first user U1.

次に、ユーザUの装着しているHMD4は、HMD4に搭載されているモニタ41に決定された画像を表示させ、HMD4に搭載されているスピーカ42に決定された音声を発生させる(図11/STEP404)。 Next, the HMD4 mounted by the user U displays the determined image on the monitor 41 mounted on the HMD4, and generates the determined voice on the speaker 42 mounted on the HMD4 (FIG. 11 / STEP404).

次に、サーバ3のトリガーイベント認識部33は、トリガーイベントの解除を認識したか否かを判断する(図11/STEP405)。 Next, the trigger event recognition unit 33 of the server 3 determines whether or not the cancellation of the trigger event has been recognized (FIG. 11 / STEP405).

具体的には、まず、トリガーイベント認識部33は、仮想空間VSで、第2ユーザU2に対応する第2アバターA2が、第1ユーザU1に対応する第1アバターA1に触れる姿勢(図12参照)を解除したか否かを判断する。そして、第2アバターA2が第1アバターA1に触れる姿勢を解除した時には、トリガーイベント認識部33は、トリガーイベントが解除されたと認識する。 Specifically, first, the trigger event recognition unit 33 has a posture in which the second avatar A2 corresponding to the second user U2 touches the first avatar A1 corresponding to the first user U1 in the virtual space VS (see FIG. 12). ) Is canceled. Then, when the posture in which the second avatar A2 touches the first avatar A1 is released, the trigger event recognition unit 33 recognizes that the trigger event has been released.

なお、トリガーイベントの解除は、例えば、トリガーイベントの発生から所定の期間が経過したときに自動的に認識されるように構成されていてもよいし、他のトリガーイベントが発生したとき(例えば、第2アバターA2が第1ゴーストG1に触れていない状態になったとき等)に認識されるように構成されていてもよい。 The cancellation of the trigger event may be configured to be automatically recognized when a predetermined period has elapsed from the occurrence of the trigger event, or when another trigger event occurs (for example,). It may be configured to be recognized when the second avatar A2 is not in contact with the first ghost G1.

トリガーイベントの解除を認識しなかった場合(STEP405でNOの場合)、STEP402に戻り、再度、STEP402以降の処理が実行される。 If the cancellation of the trigger event is not recognized (NO in STEP405), the process returns to STEP402 and the processing after STEP402 is executed again.

一方、トリガーイベントの解除を認識した場合(STEP405でYESの場合)、サーバ3のアバター座標決定部34は、第2アバターA2及び第2ゴーストG2の座標の固定を解除する(図11/STEP406)。 On the other hand, when the cancellation of the trigger event is recognized (YES in STEP 405), the avatar coordinate determination unit 34 of the server 3 releases the fixation of the coordinates of the second avatar A2 and the second ghost G2 (FIG. 11 / STEP 406). ..

トリガーイベントの発生を認識しなかった場合(STEP400でNOの場合)、又は、第2アバターA2及び第2ゴーストG2の座標の固定を解除した後には、サーバ3のアバター座標決定部34は、ユーザ情報認識部32が認識した第1ユーザU1の現実空間RSにおける座標及び姿勢に基づいて、第1アバターA1及び第1ゴーストG1の仮想空間VSにおける座標及び姿勢を決定する(図11/STEP407)。 When the occurrence of the trigger event is not recognized (NO in STEP400), or after the fixing of the coordinates of the second avatar A2 and the second ghost G2 is released, the avatar coordinate determination unit 34 of the server 3 uses the user. Based on the coordinates and posture of the first user U1 in the real space RS recognized by the information recognition unit 32, the coordinates and postures of the first avatar A1 and the first ghost G1 in the virtual space VS are determined (FIG. 11 / STEP407).

次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、第1ユーザU1に認識させる画像及び音声を、第1アバターA1の仮想空間VSにおける座標及び姿勢に基づいて決定する(図11/STEP408)。 Next, the virtual space image determination unit 35 and the virtual space voice determination unit 36 of the server 3 determine the image and sound to be recognized by the first user U1 based on the coordinates and the posture of the first avatar A1 in the virtual space VS. (Fig. 11 / STEP408).

次に、サーバ3のアバター座標決定部34は、ユーザ情報認識部32が認識した第2ユーザU2の現実空間RSにおける座標及び姿勢に基づいて、第2アバターA2及び第2ゴーストG2の仮想空間VSにおける座標及び姿勢を決定する(図11/STEP409)。 Next, the avatar coordinate determination unit 34 of the server 3 determines the virtual space VS of the second avatar A2 and the second ghost G2 based on the coordinates and the posture of the second user U2 recognized by the user information recognition unit 32 in the real space RS. (Fig. 11 / STEP409).

次に、サーバ3の仮想空間画像決定部35及び仮想空間音声決定部36は、第2ユーザU2に認識させる画像及び音声を、第2アバターA2の仮想空間VSにおける座標及び姿勢に基づいて決定する(図11/STEP410)。 Next, the virtual space image determination unit 35 and the virtual space voice determination unit 36 of the server 3 determine the image and sound to be recognized by the second user U2 based on the coordinates and the posture of the second avatar A2 in the virtual space VS. (Fig. 11 / STEP410).

次に、ユーザUの装着しているHMD4が、モニタ41に決定された画像を表示し、スピーカ42に音声を発生する(図11/STEP411)。 Next, the HMD 4 worn by the user U displays the determined image on the monitor 41 and generates voice on the speaker 42 (FIG. 11 / STEP411).

次に、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図11/STEP412)。 Next, the server 3 determines whether or not the signal instructing the end of the process has been recognized (FIG. 11 / STEP412).

終了を指示する信号を認識できなかった場合(STEP412でNOの場合)、STEP400に戻り、再度、STEP400以降の処理が実行される。 If the signal indicating the end cannot be recognized (NO in STEP412), the process returns to STEP400, and the processing after STEP400 is executed again.

一方、終了を指示する信号を認識した場合(STEP412でYESの場合)、VRシステムSは、今回の処理を終了する。 On the other hand, when the signal instructing the end is recognized (YES in STEP412), the VR system S ends the current process.

このように、VRシステムSでは、トリガーイベントの発生が認識された際には、仮想空間画像決定部35及び仮想空間音声決定部36は、第2ユーザU2に認識させる仮想空間VSの画像及び音声を、第2アバターA2の座標が第1アバターA1の座標に隣接する座標に移動した場合における画像及び音声にしている。 As described above, in the VR system S, when the occurrence of the trigger event is recognized, the virtual space image determination unit 35 and the virtual space voice determination unit 36 cause the second user U2 to recognize the image and sound of the virtual space VS. Is the image and sound when the coordinates of the second avatar A2 move to the coordinates adjacent to the coordinates of the first avatar A1.

すなわち、トリガーイベントの発生が認識された際には、第2ユーザU2に認識させる仮想空間VSの画像及び音声を決定するための基準となる座標を、第2ユーザU2に対応する第2アバターA2の座標の位置に関係なく、第1ユーザU1に対応する第1アバターA1の座標に隣接する座標としている。 That is, when the occurrence of the trigger event is recognized, the coordinates that serve as the reference for determining the image and sound of the virtual space VS to be recognized by the second user U2 are set to the second avatar A2 corresponding to the second user U2. Regardless of the position of the coordinates of, the coordinates are adjacent to the coordinates of the first avatar A1 corresponding to the first user U1.

これにより、トリガーイベントの発生が認識された際には、第2ユーザU2は、第1ユーザU1とともに、第1ユーザU1に対応する第1アバターA1の座標に隣接する座標に基づいて決定された仮想空間VSの画像及び音声を認識することになる。 As a result, when the occurrence of the trigger event is recognized, the second user U2 is determined together with the first user U1 based on the coordinates adjacent to the coordinates of the first avatar A1 corresponding to the first user U1. The image and sound of the virtual space VS will be recognized.

したがって、VRシステムSによれば、トリガーイベントの発生が認識された後には、第2ユーザU2は、第1ユーザU1に対応する第1アバターA1の座標に隣接する座標に基づいて決定された仮想空間VSの画像及び音声を認識することになるので、それまで仮想空間VSで異なる環境を体感していた第1ユーザ及び第2ユーザが、ほぼ同じ環境を体感することができるようになる。 Therefore, according to the VR system S, after the occurrence of the trigger event is recognized, the second user U2 is a virtual determined based on the coordinates adjacent to the coordinates of the first avatar A1 corresponding to the first user U1. Since the image and sound of the space VS are recognized, the first user and the second user who have experienced different environments in the virtual space VS can experience almost the same environment.

なお、本実施形態においては、第2ユーザU2が自らの環境を第1ユーザU1の環境に同期させる場合について説明した。しかし、本発明の仮想空間体感システムは、そのような構成に限定されるものではなく、トリガーイベントの発生が認識された際に第1ユーザ及び第2ユーザの一方の環境を、第1ユーザ及び第2ユーザの他方の環境に同期させるものであればよい。 In this embodiment, the case where the second user U2 synchronizes his / her environment with the environment of the first user U1 has been described. However, the virtual space experience system of the present invention is not limited to such a configuration, and when the occurrence of a trigger event is recognized, the environment of one of the first user and the second user is set to the first user and the environment of the second user. Anything that synchronizes with the other environment of the second user may be used.

そのため、例えば、本実施形態において、第1アバターA1が第2ユーザU2に対応する第2ゴーストG2に触れた場合に、第1ユーザU1の認識する画像及び音声を、第2アバターA2の座標に一致する座標又は隣接する座標を基準として決定するように構成してもよい。 Therefore, for example, in the present embodiment, when the first avatar A1 touches the second ghost G2 corresponding to the second user U2, the image and sound recognized by the first user U1 are set to the coordinates of the second avatar A2. It may be configured to be determined based on matching coordinates or adjacent coordinates.

また、例えば、本実施形態では、他のユーザである第1ユーザU1の環境に第2ユーザU2が自らの環境を同期させているが、自らの環境に他のユーザの環境を同期させるように構成してもよい。 Further, for example, in the present embodiment, the second user U2 synchronizes its own environment with the environment of the first user U1 which is another user, but the environment of the other user is synchronized with its own environment. It may be configured.

具体的には、例えば、本実施形態において、第1アバターA1が第2ユーザU2に対応する第2ゴーストG2に触れた場合に、第2ユーザU2の認識する画像及び音声を、第1アバターA1の座標に一致する座標又は隣接する座標を基準として決定するように構成してもよい。逆に、第2アバターA2が第1ユーザU1に対応する第1ゴーストG1に触れた場合に、第1ユーザU1の認識する画像及び音声を、第2アバターA2の座標に一致する座標又は隣接する座標を基準として決定するように構成してもよい。 Specifically, for example, in the present embodiment, when the first avatar A1 touches the second ghost G2 corresponding to the second user U2, the image and sound recognized by the second user U2 are used as the first avatar A1. It may be configured to be determined based on the coordinates that match the coordinates of or adjacent coordinates. Conversely, when the second avatar A2 touches the first ghost G1 corresponding to the first user U1, the image and sound recognized by the first user U1 are coordinated or adjacent to the coordinates of the second avatar A2. It may be configured to be determined based on the coordinates.

なお、他のユーザの環境に自らの環境を同期させる処理を行う構成と、自らの環境に他のユーザの環境を同期させる処理を行う構成とを同時に実装する場合には、トリガーイベントとなる動作を、行われる処理に応じて異ならせればよい。 If a configuration that synchronizes one's own environment with another user's environment and a configuration that synchronizes another user's environment with one's own environment are implemented at the same time, an operation that becomes a trigger event. May be different depending on the processing to be performed.

具体的には、例えば、自らに対応するアバターの右手で他のユーザに対応するアバターに触れた場合には、他のユーザの環境に自らの環境を同期させる処理を実行し、自らに対応するアバターの左手で他のユーザに対応するアバターに触れた場合には、自らの環境に他のユーザの環境を同期させる処理を実行するというように構成するとよい。 Specifically, for example, when the avatar corresponding to another user is touched with the right hand of the avatar corresponding to the user, the process of synchronizing the environment with the environment of the other user is executed and the avatar corresponds to the user. When the left hand of the avatar touches the avatar corresponding to another user, it is preferable to execute the process of synchronizing the environment of the other user with the environment of the avatar.

また、第1実施形態のように、座標を移動させて環境を同期させる処理を行う構成と、本実施形態のように、基準となる座標を変更して環境を同期させる処理を行う構成とを同時に実装する場合には、トリガーイベントとなる動作を、行われる処理に応じて異ならせればよい。 Further, as in the first embodiment, there is a configuration in which the coordinates are moved to synchronize the environment, and a configuration in which the reference coordinates are changed to synchronize the environment as in the present embodiment. When implementing at the same time, the operation that becomes the trigger event may be different depending on the processing to be performed.

具体的には、例えば、自らに対応するアバターで他のユーザに対応するアバターの手に触れた場合には、座標を移動させて環境を同期させる処理を行い、自らに対応するアバターで他のユーザに対応するアバターの肩に触れた場合には、基準となる座標を変更して環境を同期させる処理を行うように構成するよい。 Specifically, for example, when the avatar corresponding to oneself touches the hand of the avatar corresponding to another user, the process of moving the coordinates to synchronize the environment is performed, and the avatar corresponding to oneself is used for another. When the shoulder of the avatar corresponding to the user is touched, the reference coordinates may be changed to synchronize the environment.

[その他の実施形態]
以上、図示の実施形態について説明したが、本発明はこのような形態に限定されるものではない。
[Other embodiments]
Although the illustrated embodiment has been described above, the present invention is not limited to such an embodiment.

例えば、上記実施形態では、図4等に示すように、仮想空間体感システムであるVRシステムSは、現実空間RSの1つの部屋に共に存在する第1ユーザU1及び第2ユーザU2に対し、その部屋に対応する1つの仮想空間VSに、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2アバターA2を介して、互いに存在すると認識させるものとして構成されている。 For example, in the above embodiment, as shown in FIG. 4 and the like, the VR system S, which is a virtual space experience system, is used for the first user U1 and the second user U2, which coexist in one room of the real space RS. One virtual space VS corresponding to a room is configured to be recognized as existing to each other via a first avatar A1 corresponding to the first user U1 and a second avatar A2 corresponding to the second user U2.

しかし、本発明の仮想空間体感システムは、そのような構成に限定されるものではなく、複数のユーザに対応するアバターが、同時に仮想空間に存在できるものであればよい。 However, the virtual space experience system of the present invention is not limited to such a configuration, and any avatar corresponding to a plurality of users may exist in the virtual space at the same time.

そのため、例えば、第1ユーザと第2ユーザとが、現実空間の異なる領域(例えば、各々の自室)に存在していてもよい。 Therefore, for example, the first user and the second user may exist in different regions of the real space (for example, their own rooms).

また、上記実施形態では、仮想空間VSをその仮想空間VSに対応する現実空間RSよりも広くなるように拡張させる処理(図5のフローチャートを参照して説明した処理)を実行した場合において、環境を同期させる処理(図8のフローチャート又は図11のフローチャートを参照して説明した処理)を実行した場合について説明した。 Further, in the above embodiment, when a process of expanding the virtual space VS so as to be wider than the real space RS corresponding to the virtual space VS (process described with reference to the flowchart of FIG. 5) is executed, the environment is executed. The case where the process of synchronizing the above (the process described with reference to the flowchart of FIG. 8 or the flowchart of FIG. 11) is executed has been described.

これは、ユーザにそのように現実空間よりも拡張された仮想空間を認識させた場合には、各々のユーザが、異なる環境を体感する機会(ひいては、環境を共有したいと感じる機会)が増えるためである。 This is because when users are made to recognize a virtual space that is expanded beyond the real space, each user has more opportunities to experience different environments (and thus to feel that they want to share the environment). Is.

しかし、本発明の仮想空間体感システムは、そのような仮想空間を拡張させる処理を実行した場合にのみ環境を同期させる処理を実行する構成に限定されるものではなく、各々のユーザが、自分以外のユーザも何らかの仮想空間を体験していることを認識できるように構成されていればよい。そのため、例えば、各々のユーザに対応するアバターが、同一の仮想空間に存在していなくてもよい。 However, the virtual space experience system of the present invention is not limited to a configuration in which the process of synchronizing the environment is executed only when the process of expanding such a virtual space is executed, and each user is not limited to himself / herself. It suffices if the user is configured to be able to recognize that he / she is experiencing some kind of virtual space. Therefore, for example, the avatar corresponding to each user does not have to exist in the same virtual space.

具体的には、買い物客である複数の第1ユーザに対応する複数の第1アバターが、仮想空間に存在する店舗に自由に存在するとともに、店員である第2ユーザに対応する第2アバターが、仮想空間に存在するコンシェルジュカウンターに存在するように構成されていてもよい。このとき、コンシェルジュカウンターの存在する仮想空間は、店舗の存在する仮想空間であってもよいし、店舗の存在する仮想空間とは別の仮想空間であってもよい。 Specifically, a plurality of first avatars corresponding to a plurality of first users who are shoppers freely exist in a store existing in a virtual space, and a second avatar corresponding to a second user who is a clerk is present. , May be configured to exist at the concierge counter that exists in the virtual space. At this time, the virtual space in which the concierge counter exists may be a virtual space in which the store exists, or may be a virtual space different from the virtual space in which the store exists.

このように構成されている場合であって、上記第1実施形態のように一方のアバターそのものが他方のアバターの座標と一致する座標又は隣接する座標に移動するように構成されているときには、第1トリガーイベントの発生が認識された際には、第2アバターは、コンシェルジュカウンターから、複数の第1ユーザのうちその第1トリガーイベントを発生させた第1ユーザに対応する第1アバターの座標へと移動する。 In the case of being configured in this way, when one avatar itself is configured to move to coordinates that match or are adjacent to the coordinates of the other avatar as in the first embodiment, the first When the occurrence of one trigger event is recognized, the second avatar moves from the concierge counter to the coordinates of the first avatar corresponding to the first user who generated the first trigger event among the plurality of first users. And move.

また、このように構成されている場合であって、上記第2実施形態のように一方のアバターの視点だけが他方のアバターの座標と一致する座標又は隣接する座標に移動するように構成されているときには、第1トリガーイベントの発生が認識された際には、第2アバターに対応する第2ユーザに表示される画像は、コンシェルジュカウンターの画像から、複数の第1ユーザのうちその第1トリガーイベントを発生させた第1ユーザに表示されている画像と同様の画像に変化する。 Further, even in the case of being configured in this way, as in the second embodiment, only the viewpoint of one avatar is configured to move to the coordinates that match the coordinates of the other avatar or the coordinates that are adjacent to each other. When the occurrence of the first trigger event is recognized, the image displayed to the second user corresponding to the second avatar is the first trigger of the plurality of first users from the image of the concierge counter. The image changes to the same as the image displayed to the first user who generated the event.

また、これらのように構成されている場合、第1トリガーイベントは、例えば、第1アバターが仮想空間に生成されたオブジェクトである呼び出しボタンを押す、又は、第2アバターが移動ボタンを押すといった動作等が該当する。 Further, when configured as described above, the first trigger event is, for example, an operation in which the first avatar presses the call button, which is an object created in the virtual space, or the second avatar presses the move button. Etc. are applicable.

また、上記実施形態では、第2ユーザU2に対応する第2アバターA2が、第1ユーザU1に対応し、第1ユーザU1の座標との対応関係にズレの生じた座標に位置する第1ゴーストG1に接触する動作を、第1トリガーイベントとして採用している。また、第1ユーザU1に対応する第1アバターA1が、第2ユーザU2に対応し、第2ユーザU2の座標との対応関係にズレの生じた座標に位置する第2ゴーストG2に接触する動作も、第1トリガーイベントとして採用し得るとしている。 Further, in the above embodiment, the second avatar A2 corresponding to the second user U2 corresponds to the first user U1 and is located at the coordinates where the correspondence with the coordinates of the first user U1 is deviated. The action of contacting G1 is adopted as the first trigger event. Further, the operation in which the first avatar A1 corresponding to the first user U1 corresponds to the second user U2 and comes into contact with the second ghost G2 located at the coordinates where the correspondence with the coordinates of the second user U2 is deviated. Can also be adopted as the first trigger event.

これは、その動作によって、一方のユーザが、他方のユーザと環境を共有する第1トリガーイベントが発生することを、直感的に理解することができるようにするためである。ひいては、第1トリガーイベントを発生させるために、その第1トリガーイベントを発生させようとするユーザの仮想空間への没入感が阻害されてしまうことを抑制することができるようにするためである。 This is so that one user can intuitively understand that the operation causes a first trigger event that shares the environment with the other user. As a result, in order to generate the first trigger event, it is possible to suppress the immersive feeling of the user who is trying to generate the first trigger event in the virtual space.

しかし、本発明における第1トリガーイベントは、このような構成に限定されるものではなく、システム設計者等が適宜設定してよい。 However, the first trigger event in the present invention is not limited to such a configuration, and may be appropriately set by a system designer or the like.

そのため、例えば、仮想空間に生成されたオブジェクト(例えば、移動スイッチ、呼び出しスイッチ等)に触れることによって、第1トリガーイベントが発生するように構成してもよい。また、アバターに特定の動作(例えば、手招きする動作等)を行わせた場合に、第1トリガーイベントが発生するように構成してもよい。 Therefore, for example, the first trigger event may be generated by touching an object (for example, a movement switch, a call switch, etc.) generated in the virtual space. Further, the first trigger event may be configured to occur when the avatar is made to perform a specific action (for example, a beckoning action).

また、上記実施形態においては、トリガーイベントを、一方のユーザに対応するアバターが他方のユーザに対応するゴーストに触れる動作としている。しかし、本発明における第1トリガーイベントは、そのような構成に限定されるものではなく、一方のユーザに対応するアバターが他方のユーザに対応するゴーストに対して実行する所定の動作であればよい。 Further, in the above embodiment, the trigger event is an action in which the avatar corresponding to one user touches the ghost corresponding to the other user. However, the first trigger event in the present invention is not limited to such a configuration, and may be any predetermined action that the avatar corresponding to one user performs on the ghost corresponding to the other user. ..

ここで、「所定の動作」としては、アバターがゴーストを基準として行う何らかの動作であればよい。例えば、本実施形態のようにアバターがゴーストに接触するような動作の他、アバターがゴーストを基準とした所定の範囲内に移動するような動作、アバターが仮想空間に存在するオブジェクトを操作する際に、その対象としてゴーストを選択するような動作(例えば、カメラ型オブジェクトでゴーストを撮影するような動作等)等が挙げられる。 Here, the "predetermined action" may be any action performed by the avatar based on the ghost. For example, in addition to the action of the avatar touching the ghost as in the present embodiment, the action of the avatar moving within a predetermined range based on the ghost, and when the avatar operates an object existing in the virtual space. In addition, an operation such as selecting a ghost as the target (for example, an operation such as shooting a ghost with a camera-type object) and the like can be mentioned.

また、本実施形態においては、仮想空間を拡張させる処理の際に生成されたゴーストを、トリガーイベントを発生させるためのキーとして採用している。しかし、本発明におけるゴーストは、そのような構成に限定されるものではなく、ユーザに対応し、且つ、そのユーザの認識する画像及び音声の基準とはならないアバターであればよい。 Further, in the present embodiment, the ghost generated during the process of expanding the virtual space is adopted as the key for generating the trigger event. However, the ghost in the present invention is not limited to such a configuration, and may be an avatar that corresponds to the user and does not serve as a reference for the image and sound recognized by the user.

そのため、例えば、仮想空間を拡張する処理等の実行等に関係なく、最初から、ユーザに対応し、且つ、そのユーザの認識する画像及び音声の基準となるアバターとともに、そのアバターとは独立したアバターを生成し、その独立した(例えば、基準となるアバターの座標とは異なる座標に生成した)アバターをゴーストとして採用してもよい。 Therefore, for example, an avatar that corresponds to the user from the beginning and serves as a reference for the image and sound recognized by the user, regardless of the execution of processing for expanding the virtual space, and an avatar that is independent of the avatar. And its independent avatar (for example, generated at a coordinate different from the reference avatar's coordinate) may be adopted as the ghost.

具体的には、例えば、仮想空間で、ダンスの講師に対応するアバター、生徒に対応するアバター、及び、講師に対応するアバターの手元に存在し、生徒に対応したミニチュアのようなアバターを生成して、そのミニチュアのようなアバターを用いて、講師が生徒の状態を確認するような場合には、そのミニチュアのようなアバターを、ゴーストとして採用してもよい。 Specifically, for example, in a virtual space, an avatar corresponding to a dance instructor, an avatar corresponding to a student, and a miniature-like avatar existing at hand of an avatar corresponding to an instructor and corresponding to a student are generated. If the instructor confirms the student's condition using the miniature-like avatar, the miniature-like avatar may be adopted as the ghost.

そのように構成した場合には、講師が、生徒の状態を、客観的な自らの視点で観察するとともに、必要に応じて生徒の主観的な視点で観察することができるようになる。 With such a configuration, the instructor will be able to observe the student's condition from an objective point of view and, if necessary, from the student's subjective point of view.

1…標識、2…カメラ、3…サーバ、4…HMD、31…表示画像生成部、31a…仮想空間生成部、31b…アバター生成部、31c…移動体生成部、32…ユーザ情報認識部、32a…ユーザ姿勢認識部、32b…ユーザ座標認識部、33…トリガーイベント認識部、34…アバター座標決定部、35…仮想空間画像決定部、36…仮想空間音声決定部、41…モニタ(仮想空間画像表示器)、42…スピーカ(仮想空間音声発生器)、A…アバター、A1…第1アバター、A2…第2アバター、F1…第1フロア、F2…第2フロア、G1…第1ゴースト、G1a…第1情報ボード、G2…第2ゴースト、G2a…第2情報ボード、RS…現実空間、RS1…ホワイトボード、S…VRシステム、U…ユーザ、U1…第1ユーザ、U2…第2ユーザ、VS…仮想空間、VS1…エレベータ(移動体)、VS2…スイッチ、VS3…虹。 1 ... sign, 2 ... camera, 3 ... server, 4 ... HMD, 31 ... display image generation unit, 31a ... virtual space generation unit, 31b ... avatar generation unit, 31c ... mobile body generation unit, 32 ... user information recognition unit, 32a ... user attitude recognition unit, 32b ... user coordinate recognition unit, 33 ... trigger event recognition unit, 34 ... avatar coordinate determination unit, 35 ... virtual space image determination unit, 36 ... virtual space voice determination unit, 41 ... monitor (virtual space) Image display), 42 ... Speaker (virtual space sound generator), A ... Avatar, A1 ... 1st avatar, A2 ... 2nd avatar, F1 ... 1st floor, F2 ... 2nd floor, G1 ... 1st ghost, G1a ... 1st information board, G2 ... 2nd ghost, G2a ... 2nd information board, RS ... real space, RS1 ... white board, S ... VR system, U ... user, U1 ... 1st user, U2 ... 2nd user , VS ... virtual space, VS1 ... elevator (moving body), VS2 ... switch, VS3 ... rainbow.

Claims (4)

第1ユーザ及び第2ユーザが存在する現実空間に対応する仮想空間を生成する仮想空間生成部と、
前記第1ユーザに対応する第1アバター、及び、前記第2ユーザに対応する第2アバターを、前記仮想空間に生成するとともに、前記第1ユーザ及び前記第2ユーザの一方に対応し、前記第1アバター及び前記第2アバターとは独立したアバターであるゴーストを、前記仮想空間に生成するアバター生成部と、
前記現実空間における前記第1ユーザの座標及び前記第2ユーザの座標を認識するユーザ座標認識部と、
前記第1ユーザの座標に基づいて、前記仮想空間における前記第1アバターの座標を決定し、前記第2ユーザの座標に基づいて、前記仮想空間における前記第2アバターの座標を決定するとともに、前記第1ユーザ及び前記第2ユーザの一方に対応する前記第1アバター又は前記第2アバターの座標に所定のズレを生じさせた座標に基づいて、前記ゴーストの座標を決定するアバター座標決定部と、
前記第1アバターの座標及び前記第2アバターの座標に基づいて、前記第1ユーザ及び前記第2ユーザに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
第1トリガーイベントの発生を認識するトリガーイベント認識部と、
前記第1ユーザ及び前記第2ユーザに、前記仮想空間の画像を認識させる仮想空間画像表示器とを備えている仮想空間体感システムにおいて、
前記アバター座標決定部は、前記第1トリガーイベントの発生が認識された際に、前記第1アバター及び前記第2アバターの一方の座標を、前記第1アバター及び前記第2アバターの他方の座標に一致する座標又は隣接する座標に移動させ
前記仮想空間画像決定部は、前記第1ユーザ及び前記第2ユーザの他方に認識させる前記仮想空間の画像に、前記第1ユーザ及び前記第2ユーザの一方に対応している旨を示す情報を付加した前記ゴーストの画像を含ませ、
前記第1トリガーイベントは、前記第1ユーザ及び前記第2ユーザの他方に対応する前記第1アバター又は前記第2アバターが前記ゴーストに対して実行する所定の動作であることを特徴とする仮想空間体感システム。
A virtual space generator that creates a virtual space corresponding to the real space in which the first user and the second user exist, and
The first avatar corresponding to the first user and the second avatar corresponding to the second user are generated in the virtual space, and the first user and the second user are supported by the first user. An avatar generation unit that generates a ghost, which is an avatar independent of one avatar and the second avatar, in the virtual space .
A user coordinate recognition unit that recognizes the coordinates of the first user and the coordinates of the second user in the real space, and
Based on the coordinates of the first user, the coordinates of the first avatar in the virtual space are determined, and the coordinates of the second avatar in the virtual space are determined based on the coordinates of the second user, and the coordinates are determined. An avatar coordinate determination unit that determines the coordinates of the ghost based on the coordinates that cause a predetermined deviation in the coordinates of the first avatar or the second avatar corresponding to one of the first user and the second user .
A virtual space image determination unit that determines an image of the virtual space to be recognized by the first user and the second user based on the coordinates of the first avatar and the coordinates of the second avatar.
A trigger event recognition unit that recognizes the occurrence of the first trigger event,
In a virtual space experience system provided with a virtual space image display that causes the first user and the second user to recognize an image of the virtual space.
When the occurrence of the first trigger event is recognized, the avatar coordinate determination unit changes the coordinates of one of the first avatar and the second avatar to the coordinates of the other of the first avatar and the second avatar. Move to matching coordinates or adjacent coordinates ,
The virtual space image determination unit provides information indicating that the image of the virtual space to be recognized by the other of the first user and the second user corresponds to one of the first user and the second user. Include the added image of the ghost,
The first trigger event is a virtual operation that the first avatar or the second avatar corresponding to the other of the first user and the second user performs on the ghost. Spatial experience system.
第1ユーザ及び第2ユーザが存在する現実空間に対応する仮想空間を生成する仮想空間生成部と、
前記第1ユーザに対応する第1アバター、及び、前記第2ユーザに対応する第2アバターを、前記仮想空間に生成するとともに、前記第1ユーザ及び前記第2ユーザの一方に対応し、前記第1アバター及び前記第2アバターとは独立したアバターであるゴーストを、前記仮想空間に生成するアバター生成部と、
前記現実空間における前記第1ユーザの座標及び前記第2ユーザの座標を認識するユーザ座標認識部と、
前記第1ユーザの座標に基づいて、前記仮想空間における前記第1アバターの座標を決定し、前記第2ユーザの座標に基づいて、前記仮想空間における前記第2アバターの座標を決定するとともに、前記第1ユーザ及び前記第2ユーザの一方に対応する前記第1アバター又は前記第2アバターの座標に所定のズレを生じさせた座標に基づいて、前記ゴーストの座標を決定するアバター座標決定部と、
前記第1アバターの座標及び前記第2アバターの座標に基づいて、前記第1ユーザ及び前記第2ユーザに認識させる前記仮想空間の画像を決定する仮想空間画像決定部と、
第1トリガーイベントの発生を認識するトリガーイベント認識部と、
前記第1ユーザ及び前記第2ユーザに、前記仮想空間の画像を認識させる仮想空間画像表示器とを備えている仮想空間体感システムにおいて、
前記仮想空間画像決定部は、前記第1ユーザ及び前記第2ユーザの他方に認識させる前記仮想空間の画像に、前記第1ユーザ及び前記第2ユーザの一方に対応している旨を示す情報を付加した前記ゴーストの画像を含ませ、且つ、前記第1トリガーイベントの発生が認識された際に、前記第1ユーザ及び前記第2ユーザの一方に認識させる前記仮想空間の画像を、前記第1アバター及び前記第2アバターの一方の座標が前記第1アバター及び前記第2アバターの他方の座標に一致する座標又は隣接する座標に移動した場合における画像にし、
前記第1トリガーイベントは、前記第1ユーザ及び前記第2ユーザの他方に対応する前記第1アバター又は前記第2アバターが前記ゴーストに対して実行する所定の動作であることを特徴とする仮想空間体感システム。
A virtual space generator that creates a virtual space corresponding to the real space in which the first user and the second user exist, and
The first avatar corresponding to the first user and the second avatar corresponding to the second user are generated in the virtual space, and the first user and the second user are supported by the first user. An avatar generation unit that generates a ghost, which is an avatar independent of one avatar and the second avatar, in the virtual space .
A user coordinate recognition unit that recognizes the coordinates of the first user and the coordinates of the second user in the real space, and
Based on the coordinates of the first user, the coordinates of the first avatar in the virtual space are determined, and the coordinates of the second avatar in the virtual space are determined based on the coordinates of the second user, and the coordinates are determined. An avatar coordinate determination unit that determines the coordinates of the ghost based on the coordinates that cause a predetermined deviation in the coordinates of the first avatar or the second avatar corresponding to one of the first user and the second user .
A virtual space image determination unit that determines an image of the virtual space to be recognized by the first user and the second user based on the coordinates of the first avatar and the coordinates of the second avatar.
A trigger event recognition unit that recognizes the occurrence of the first trigger event,
In a virtual space experience system provided with a virtual space image display that causes the first user and the second user to recognize an image of the virtual space.
The virtual space image determination unit provides information indicating that the image of the virtual space to be recognized by the other of the first user and the second user corresponds to one of the first user and the second user. The first image of the virtual space including the added image of the ghost and causing one of the first user and the second user to recognize when the occurrence of the first trigger event is recognized. An image is obtained when one of the coordinates of the avatar and the second avatar moves to a coordinate that matches or is adjacent to the other coordinates of the first avatar and the second avatar .
The first trigger event is a virtual operation that the first avatar or the second avatar corresponding to the other of the first user and the second user performs on the ghost. Spatial experience system.
請求項1又は請求項2に記載の仮想空間体感システムにおいて、
前記トリガーイベント認識部は、第2トリガーイベントの発生を認識し、
前記アバター生成部は、前記第2トリガーイベントの発生が認識された際に、前記第1ユーザに対応する前記ゴーストである第1ゴーストを、前記仮想空間に生成し、
前記アバター座標決定部は、前記第2トリガーイベントの発生が認識された後には、前記第1ユーザの座標に前記所定のズレを生じさせた座標に基づいて、前記第1アバターの座標を決定し、前記第1ユーザの座標に基づいて、前記仮想空間における前記第1ゴーストの座標を決定し、
前記仮想空間画像決定部は、前記第2トリガーイベントの発生が認識された後には、前記第2ユーザに認識させる前記仮想空間の画像に、前記第1ユーザに対応している旨を示す情報を付加した前記第1ゴーストの画像を含ませ、
前記第1トリガーイベントは、前記第2アバターが前記第1ゴーストに対して実行する所定の動作であることを特徴とする仮想空間体感システム。
In the virtual space experience system according to claim 1 or 2 .
The trigger event recognition unit recognizes the occurrence of the second trigger event and recognizes the occurrence of the second trigger event.
When the occurrence of the second trigger event is recognized, the avatar generation unit generates the first ghost, which is the ghost corresponding to the first user, in the virtual space.
After the occurrence of the second trigger event is recognized, the avatar coordinate determination unit determines the coordinates of the first avatar based on the coordinates that cause the predetermined deviation from the coordinates of the first user. , The coordinates of the first ghost in the virtual space are determined based on the coordinates of the first user.
After the occurrence of the second trigger event is recognized, the virtual space image determination unit displays information indicating that the image of the virtual space to be recognized by the second user corresponds to the first user. The added image of the first ghost is included,
The first trigger event is a virtual space experience system characterized in that the second avatar is a predetermined action executed for the first ghost.
請求項1~請求項3のいずれか1項に記載の仮想空間体感システムにおいて、
前記トリガーイベント認識部は、第2トリガーイベントの発生を認識し、
前記アバター生成部は、前記第2トリガーイベントの発生が認識された際に、前記第2ユーザに対応する前記ゴーストである第2ゴーストを、前記仮想空間に生成し、
前記アバター座標決定部は、前記第2トリガーイベントの発生が認識された後には、前記第1ユーザの座標に前記所定のズレを生じさせた座標に基づいて、前記第1アバターの座標を決定し、前記第2ユーザの座標に前記所定のズレを生じさせた座標に基づいて、前記仮想空間における前記第2ゴーストの座標を決定し、
前記仮想空間画像決定部は、前記第2トリガーイベントの発生が認識された後には、前記第1ユーザに認識させる前記仮想空間の画像に、前記第2ユーザに対応している旨を示す情報を付加した前記第2ゴーストの画像を含ませ、
前記第1トリガーイベントは、前記第1アバターが前記第2ゴーストに対して実行する所定の動作であることを特徴とする仮想空間体感システム。
In the virtual space experience system according to any one of claims 1 to 3 .
The trigger event recognition unit recognizes the occurrence of the second trigger event and recognizes the occurrence of the second trigger event.
When the occurrence of the second trigger event is recognized, the avatar generation unit generates the second ghost, which is the ghost corresponding to the second user, in the virtual space.
After the occurrence of the second trigger event is recognized, the avatar coordinate determination unit determines the coordinates of the first avatar based on the coordinates that cause the predetermined deviation from the coordinates of the first user. , The coordinates of the second ghost in the virtual space are determined based on the coordinates causing the predetermined deviation from the coordinates of the second user.
After the occurrence of the second trigger event is recognized, the virtual space image determination unit displays information indicating that the image of the virtual space to be recognized by the first user corresponds to the second user. The added image of the second ghost is included,
The first trigger event is a virtual space experience system characterized in that the first avatar is a predetermined action executed for the second ghost.
JP2021575439A 2021-06-01 2021-06-01 Virtual space experience system Active JP7055527B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/020889 WO2022254585A1 (en) 2021-06-01 2021-06-01 Virtual space experience system

Publications (3)

Publication Number Publication Date
JP7055527B1 true JP7055527B1 (en) 2022-04-18
JPWO2022254585A1 JPWO2022254585A1 (en) 2022-12-08
JPWO2022254585A5 JPWO2022254585A5 (en) 2023-05-12

Family

ID=81289286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021575439A Active JP7055527B1 (en) 2021-06-01 2021-06-01 Virtual space experience system

Country Status (2)

Country Link
JP (1) JP7055527B1 (en)
WO (1) WO2022254585A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192178A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device, and method
WO2021095175A1 (en) * 2019-11-13 2021-05-20 株式会社Abal Virtual space experience system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192178A (en) * 2018-04-27 2019-10-31 株式会社コロプラ Program, information processing device, and method
WO2021095175A1 (en) * 2019-11-13 2021-05-20 株式会社Abal Virtual space experience system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
リーン ジン, セカンドライフ 歩き方ハンドブック, vol. 初版, JPN6021032352, 31 August 2007 (2007-08-31), JP, pages 44 - 51, ISSN: 0004738020 *
リーン ジン,セカンドライフ 歩き方ハンドブック,初版,日本,株式会社ソーテック社,2007年08月31日,pp. 44, 51

Also Published As

Publication number Publication date
JPWO2022254585A1 (en) 2022-12-08
WO2022254585A1 (en) 2022-12-08

Similar Documents

Publication Publication Date Title
JP6316387B2 (en) Wide-area simultaneous remote digital presentation world
EP3425481B1 (en) Control device
JP7173024B2 (en) Information processing device, information processing method, and program
JP2010257461A (en) Method and system for creating shared game space for networked game
JP2010253277A (en) Method and system for controlling movements of objects in video game
US11049325B2 (en) Information processing apparatus, information processing method, and program
JP6936465B1 (en) Virtual space experience system
CN110721467B (en) Display control method, electronic device, and computer-readable storage medium
JP7454150B2 (en) Computer program, server device and method
US20240013502A1 (en) Storage medium, method, and information processing apparatus
JP6538013B2 (en) Virtual Space Experience System
JP7055527B1 (en) Virtual space experience system
JP6933849B1 (en) Experience-based interface system and motion experience system
JP6538012B2 (en) Virtual Space Experience System
WO2021240601A1 (en) Virtual space body sensation system
JP7138392B1 (en) Virtual space sensory system
JP6739254B2 (en) Program, information processing device, information processing method, and server device
JP6672508B2 (en) Virtual space experience system
JP6933850B1 (en) Virtual space experience system
KR102481528B1 (en) Method for broadcasting service of virtual reality game, apparatus and system for executing the method
US11954244B2 (en) Information processing device and information processing method
CN116964544A (en) Information processing device, information processing terminal, information processing method, and program
CN115212566A (en) Virtual object display method and device, computer equipment and storage medium
JPWO2022254585A5 (en)
WO2018234318A1 (en) Reducing simulation sickness in virtual reality applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7055527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150