JP6933850B1 - Virtual space experience system - Google Patents

Virtual space experience system Download PDF

Info

Publication number
JP6933850B1
JP6933850B1 JP2021520445A JP2021520445A JP6933850B1 JP 6933850 B1 JP6933850 B1 JP 6933850B1 JP 2021520445 A JP2021520445 A JP 2021520445A JP 2021520445 A JP2021520445 A JP 2021520445A JP 6933850 B1 JP6933850 B1 JP 6933850B1
Authority
JP
Japan
Prior art keywords
user
state
virtual space
avatar
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021520445A
Other languages
Japanese (ja)
Other versions
JPWO2022097271A1 (en
Inventor
良哉 尾小山
良哉 尾小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of JP6933850B1 publication Critical patent/JP6933850B1/en
Publication of JPWO2022097271A1 publication Critical patent/JPWO2022097271A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

VRシステムSのオブジェクト制御部34は、第1ユーザに対応する第1アバターによって第1オブジェクトの状態が変更された際に、第2ユーザに対応する第2アバターの観察する第2オブジェクトの座標、姿勢及び方向の少なくとも1つを固定したまま、第1オブジェクトの状態の変更に応じて、第2オブジェクトの座標、姿勢及び方向の少なくとも1つ以外の状態を変更する。The object control unit 34 of the VR system S determines the coordinates of the second object observed by the second avatar corresponding to the second user when the state of the first object is changed by the first avatar corresponding to the first user. While fixing at least one of the posture and the direction, the state other than at least one of the coordinates, the posture and the direction of the second object is changed according to the change of the state of the first object.

Description

本発明は、現実空間に存在しているユーザに対応して仮想空間にアバターを生成し、そのアバターの動作を介して、仮想空間に生成された所定のオブジェクトの状態を変更することのできる仮想空間体感システムに関する。 The present invention is a virtual that can generate an avatar in a virtual space corresponding to a user existing in the real space and change the state of a predetermined object generated in the virtual space through the operation of the avatar. Regarding the spatial experience system.

従来、サーバ等で仮想空間を生成し、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)を介して、ユーザに、その仮想空間の画像及びユーザに対応するアバターの画像を認識させて、その仮想空間にユーザ自身が存在しているかのように体感させる仮想空間体感システムがある。 Conventionally, a virtual space is generated by a server or the like, and a user is made to recognize an image of the virtual space and an image of an avatar corresponding to the user via a head-mounted display (hereinafter, may be referred to as “HMD”). , There is a virtual space experience system that makes the user feel as if he / she exists in the virtual space.

この種の仮想空間体感システムとしては、モーションキャプチャー装置等によって、現実空間におけるユーザの状態の変化(例えば、身体の動作、座標の移動、姿勢の変化等)を認識し、その認識された状態の変化に応じて、仮想空間におけるアバターの状態を変化させるものがある(例えば、特許文献1参照)。 In this kind of virtual space experience system, a motion capture device or the like recognizes a change in the user's state in the real space (for example, body movement, coordinate movement, posture change, etc.), and the recognized state is recognized. Some change the state of the avatar in the virtual space according to the change (see, for example, Patent Document 1).

特許文献1の仮想空間体感システムでは、仮想空間に、現実空間に存在しているユーザの手に対応する手型のアバターと、操作対象であるオブジェクトを生成する。そして、その手型のアバターがそのオブジェクトを掴んで移動させるような動作を行った場合には、その動作に応じて、オブジェクトの仮想空間における座標が変更される。 In the virtual space experience system of Patent Document 1, a hand-shaped avatar corresponding to a user's hand existing in the real space and an object to be operated are generated in the virtual space. Then, when the hand-shaped avatar performs an action of grabbing and moving the object, the coordinates of the object in the virtual space are changed according to the action.

特開2018−49629号公報Japanese Unexamined Patent Publication No. 2018-49629

ところで、特許文献1に記載のようなシステムを用いて仮想空間を生成する場合、現実空間に実在する1つの対象物をモデルとして、複数のオブジェクトを仮想空間の異なる位置に生成することもできる。 By the way, when a virtual space is generated by using a system as described in Patent Document 1, a plurality of objects can be generated at different positions in the virtual space by using one object actually existing in the real space as a model.

そのようにして複数のオブジェクトを生成すると、1つの仮想空間に参加している複数のユーザの各々が、同一の対象物に対応するオブジェクトを、自らの手元(厳密には対応するアバターの手元)に1つずつ持って同時に独立して観察するという、現実空間では実行できないような形式で観察することができる。このとき、複数のオブジェクトの状態が同期して変化するように構成すると、対象物の状態の変化についても、複数のユーザの各々が、同時に独立して観察することができる。 When a plurality of objects are generated in this way, each of the plurality of users participating in one virtual space has an object corresponding to the same object in their own hands (strictly speaking, in the hands of the corresponding avatars). It is possible to observe in a format that cannot be performed in the real space, such as holding one by one and observing independently at the same time. At this time, if the states of the plurality of objects are configured to change synchronously, each of the plurality of users can independently observe the changes in the states of the objects at the same time.

しかし、複数のユーザ(ひいては、対応するアバター)の状態は、通常各々で異なる。そのため、複数のオブジェクトの状態が同期して変化するように構成されている場合、特定のユーザの動作によってその特定のユーザに対応するオブジェクトの状態が変化した際に、他のユーザに対応するオブジェクトの状態が、その他のユーザにとっては意図せず変化してしまい、他のユーザが観察しにくくなってしまうおそれがあった。 However, the states of the plurality of users (and thus the corresponding avatars) are usually different for each. Therefore, when the state of a plurality of objects is configured to change synchronously, when the state of the object corresponding to the specific user changes due to the action of a specific user, the object corresponding to the other user. There is a risk that the state of the object will change unintentionally for other users, making it difficult for other users to observe.

本発明は以上の点に鑑みてなされたものであり、仮想空間で1つの対象物をモデルとする複数のオブジェクトの各々を、複数のユーザが仮想空間内で観察しやすい仮想空間体感システムを提供することを目的とする。 The present invention has been made in view of the above points, and provides a virtual space experience system in which a plurality of users can easily observe each of a plurality of objects modeled on one object in the virtual space. The purpose is to do.

以下において、「状態」とは、ユーザの意図又は操作に応じて変化し得るものを指す。例えば、形状、大きさ、色、姿勢、方向、座標の位置、身体又は機構の動作状態等を指す。そのため、状態の「変化」、「変更」とは、形状、大きさ、色、姿勢、方向の変化又は変更、座標の移動、動作の開始、進行及び停止等を指す。また、「対応した形状」とは、同一の形状の他、相似した形(すなわち、同一の形状でサイズが異なる形状)、デフォルメした形状、一部を切り出したものと同じ形状等を含む。 In the following, the "state" refers to a state that can be changed according to the intention or operation of the user. For example, it refers to the shape, size, color, posture, direction, coordinate position, operating state of the body or mechanism, and the like. Therefore, the "change" and "change" of the state refer to a change or change of shape, size, color, posture, direction, movement of coordinates, start, progress and stop of operation, and the like. Further, the "corresponding shape" includes, in addition to the same shape, a similar shape (that is, a shape having the same shape but a different size), a deformed shape, the same shape as a partially cut out shape, and the like.

本発明の仮想空間体感システムは、
現実空間に存在している第1ユーザ及び第2ユーザに対応して仮想空間に生成された第1アバター及び第2アバターのいずれか一方の動作を介して、前記仮想空間に生成された所定のオブジェクトの座標、姿勢及び方向の少なくとも1つ、並びに、形状を少なくとも含む状態を変更することのできる仮想空間体感システムであって、
前記仮想空間、並びに、該仮想空間に存在する前記第1アバター、前記第2アバター及び前記所定のオブジェクトを生成する仮想空間生成部と、
前記第1ユーザの状態及び前記第2ユーザの状態を認識するユーザ状態認識部と、
前記第1ユーザの状態に応じて、前記第1アバターの状態を制御し、前記第2ユーザの状態に応じて前記第2アバターの状態を制御するアバター制御部と、
前記所定のオブジェクトの状態を制御するオブジェクト制御部と、
前記第1アバターの状態、前記第2アバターの状態及び前記所定のオブジェクトの状態に基づいて、前記第1ユーザ及び前記第2ユーザに認識させる前記仮想空間の画像を決定する画像決定部と、
前記第1ユーザ及び前記第2ユーザに前記仮想空間の画像を認識させる画像表示器とを備え、
前記所定のオブジェクトは、前記第1ユーザが観察する第1オブジェクト、及び、前記第2ユーザが観察する第2オブジェクトを含み、
前記第2オブジェクトは、前記仮想空間で前記第1オブジェクトの座標とは異なる座標に位置し、且つ、前記第1オブジェクトに対応した形状を有し、
前記第1オブジェクトの状態は、前記第1ユーザが前記第1アバターの動作を介して変更可能であり、
前記オブジェクト制御部は、
前記第1オブジェクトの形状が変更された際に、前記第2オブジェクトの形状を、該第1オブジェクトの形状の変更に応じて変更し、
前記第1オブジェクトの形状以外の状態が変更された際に、前記第2オブジェクトの座標、姿勢及び方向の少なくとも1つを固定したまま、該第2オブジェクトの該固定された状態以外の状態を、該第1オブジェクトの状態の変更に応じて変更することを特徴とする。
The virtual space experience system of the present invention
A predetermined value generated in the virtual space through the operation of either the first avatar or the second avatar generated in the virtual space corresponding to the first user and the second user existing in the real space. A virtual space experience system that can change at least one of the coordinates, orientation, and direction of an object, as well as a state that includes at least a shape.
The virtual space, and a virtual space generation unit that generates the first avatar, the second avatar, and the predetermined object existing in the virtual space.
A user state recognition unit that recognizes the state of the first user and the state of the second user,
An avatar control unit that controls the state of the first avatar according to the state of the first user and controls the state of the second avatar according to the state of the second user.
An object control unit that controls the state of the predetermined object, and
An image determination unit that determines an image of the virtual space to be recognized by the first user and the second user based on the state of the first avatar, the state of the second avatar, and the state of the predetermined object.
The first user and the second user are provided with an image display for recognizing an image of the virtual space.
The predetermined object includes a first object observed by the first user and a second object observed by the second user.
The second object is located in the virtual space at coordinates different from the coordinates of the first object, and has a shape corresponding to the first object.
The state of the first object can be changed by the first user through the operation of the first avatar.
The object control unit
When the shape of the first object is changed, the shape of the second object is changed according to the change in the shape of the first object.
When a state other than the shape of the first object is changed, the state of the second object other than the fixed state is changed while at least one of the coordinates, the posture, and the direction of the second object is fixed. It is characterized in that it changes according to the change of the state of the first object.

このように、本発明の仮想空体感システムでは、第2オブジェクトに対応した形状を有している。すなわち、それらのオブジェクトは、1つの対象物(例えば、現実空間に存在している物品等)をモデルとして生成されている。また、このシステムでは、第1オブジェクトの形状が変更された際に、第2オブジェクトの形状を、その第1オブジェクトの形状の変更に応じて(同期して)変更する。 As described above, the virtual sky experience system of the present invention has a shape corresponding to the second object. That is, those objects are generated by using one object (for example, an article existing in the real space) as a model. Further, in this system, when the shape of the first object is changed, the shape of the second object is changed (synchronically) according to the change in the shape of the first object.

そのため、このシステムは、例えば、教師役の第1ユーザが自らの手元にある第1オブジェクトを操作するとともに、生徒役の第2ユーザにその第2ユーザの手元にある第2オブジェクトを観察させることによって、教師役の第1ユーザが生徒役の第2ユーザに、第2オブジェクトを介して、第1オブジェクト及び第2オブジェクトのモデルとなっている対象物の操作方法を教えるといった使い方が可能になっている。 Therefore, in this system, for example, the first user who plays the role of a teacher operates the first object in his / her own hands, and the second user who plays the role of a student observes the second object in the hands of the second user. This makes it possible for the first user who plays the role of a teacher to teach the second user who plays the role of a student how to operate the first object and the object that is the model of the second object through the second object. ing.

さらに、このシステムは、第1オブジェクトの形状以外の状態が変更された際に、第2オブジェクトの座標、姿勢及び方向の少なくとも1つを固定したまま、その第2オブジェクトのその固定された状態外の状態を、第1オブジェクトの状態の変更に応じて変更するように構成されている。 In addition, the system retains at least one of the coordinates, orientation, and orientation of the second object when a state other than the shape of the first object is changed, while the second object is out of that fixed state. Is configured to change in response to changes in the state of the first object.

これにより、第2ユーザが観察する第2オブジェクトの状態は、第1ユーザの第1オブジェクトに対する操作の結果に応じて変化するが、完全に同期したものではなく、座標、姿勢及び方向の少なくとも1つは変化しない。すなわち、観察に関係する状態は、ある程度固定されたままとなる。 As a result, the state of the second object observed by the second user changes according to the result of the operation of the first user on the first object, but is not completely synchronized, and at least one of the coordinates, the posture, and the direction. One does not change. That is, the state related to observation remains fixed to some extent.

そのため、第1ユーザは、自らが観察する第1オブジェクトを、自由に動かしながら観察することができる一方で、第2ユーザも、自らが観察する第2オブジェクトを、ある程度安定した状態で観察することができる。 Therefore, the first user can observe the first object that he / she observes while freely moving it, while the second user also observes the second object that he / she observes in a somewhat stable state. Can be done.

したがって、本発明の仮想空間体感システムによれば、仮想空間で1つの対象物をモデルとする複数のオブジェクトの各々を、対応する各ユーザが自由に意図したような状態で、又は、ある程度安定した状態で観察することができる。ひいては、複数のユーザの各々が、1つの対象物をモデルとする複数のオブジェクトであって各ユーザに対応するオブジェクトを、観察しやすい状態を実現することができる。 Therefore, according to the virtual space experience system of the present invention, each of a plurality of objects modeled on one object in the virtual space is stable as freely intended by each corresponding user or to some extent. It can be observed in the state. As a result, it is possible to realize a state in which each of the plurality of users can easily observe a plurality of objects modeled on one object and objects corresponding to each user.

また、本発明の仮想空間体感システムにおいては、
前記第2オブジェクトの状態は、前記第2ユーザが前記第2アバターの動作を介して変更可能であり、
前記オブジェクト制御部は、前記第1オブジェクトの座標、姿勢及び方向の少なくとも1つと独立して、前記第2オブジェクトの対応する座標、姿勢及び方向の少なくとも1つを変更することが好ましい。
Further, in the virtual space experience system of the present invention,
The state of the second object can be changed by the second user through the action of the second avatar.
It is preferable that the object control unit changes at least one of the corresponding coordinates, posture and direction of the second object independently of at least one of the coordinates, posture and direction of the first object.

このように構成すると、第2ユーザは、自らに対応する第2オブジェクトを観察しにくい場合には、第2オブジェクトの座標、姿勢及び方向の少なくとも1つを、第1ユーザに対応する第1オブジェクトの状態に関わらず、見やすいように変更することができる。これにより、第2ユーザは、第2オブジェクトをさらに観察しやすくなる。 With this configuration, when it is difficult for the second user to observe the second object corresponding to himself / herself, at least one of the coordinates, the posture, and the direction of the second object is set to the first object corresponding to the first user. It can be changed to make it easier to see regardless of the state of. This makes it easier for the second user to observe the second object.

また、本発明の仮想空間体感システムにおいては、
前記所定のオブジェクトは、前記第2ユーザが操作する第3オブジェクトを含み、
前記第2オブジェクトの色は、半透明又は第3オブジェクトとは異なる色であり、
前記第3オブジェクトは、前記第2オブジェクトに対応した形状を有し、
前記第3オブジェクトの形状は、前記第2ユーザが前記第2アバターの動作を介して変更可能であり、
前記第3オブジェクトの座標、姿勢及び方向は、前記第2オブジェクトの座標、姿勢及び方向と一致していることが好ましい。
Further, in the virtual space experience system of the present invention,
The predetermined object includes a third object operated by the second user.
The color of the second object is translucent or a color different from that of the third object.
The third object has a shape corresponding to the second object and has a shape corresponding to the second object.
The shape of the third object can be changed by the second user through the operation of the second avatar.
It is preferable that the coordinates, posture and direction of the third object match the coordinates, posture and direction of the second object.

このように構成すると、第2オブジェクトと第3オブジェクトとは、仮想空間で重畳して存在することになる。ここで、前述のように、第2オブジェクトの形状は、第1ユーザに対応する第1オブジェクトの形状の変化(すなわち、第1ユーザの操作)に応じて変化する。一方、第3オブジェクトの形状は、第2ユーザの操作に応じて変化する。そのため、第1オブジェクトの形状が変化すると、重畳している第2オブジェクトと第3オブジェクトのうち第2オブジェクトの形状のみが、その変化に対応して変化することになる。 With this configuration, the second object and the third object are superimposed in the virtual space. Here, as described above, the shape of the second object changes according to the change in the shape of the first object corresponding to the first user (that is, the operation of the first user). On the other hand, the shape of the third object changes according to the operation of the second user. Therefore, when the shape of the first object changes, only the shape of the second object out of the superimposed second object and the third object changes in response to the change.

これにより、第1オブジェクトの形状が変化した際には、その変化した部分のみ(すなわち、第1オブジェクトの形状と第3オブジェクトの形状との相違部分のみ)が、重畳して生成されている第2オブジェクト7と第3オブジェクト8とによって、第2ユーザU2に、半透明の部分又は第3オブジェクトとは異なる色の部分として示されることになる。 As a result, when the shape of the first object changes, only the changed part (that is, only the difference between the shape of the first object and the shape of the third object) is superposed and generated. The 2 object 7 and the 3rd object 8 will be shown to the 2nd user U2 as a translucent part or a part having a color different from that of the 3rd object.

その結果、第2ユーザは、第1オブジェクトの形状と第3オブジェクトの形状との相違部分(ひいては、第1ユーザによる第1オブジェクトに対する操作)を、直観的に把握することができる。 As a result, the second user can intuitively grasp the difference between the shape of the first object and the shape of the third object (and by extension, the operation of the first user on the first object).

具体的には、例えば、オブジェクトが組み立て式の模型のようなものの場合には、第2ユーザは、第1ユーザの組み立て手順を、その相違部分を観察することによって、容易に把握することができる。 Specifically, for example, when the object is like a prefabricated model, the second user can easily grasp the assembling procedure of the first user by observing the difference. ..

また、本発明の仮想空間体感システムにおいては、
前記現実空間に存在しているアイテムの状態を認識するアイテム状態認識部を備え、
前記所定のオブジェクトは、前記第1ユーザ及び前記第2ユーザの少なくともいずれか一方が操作する第3オブジェクトを含み、
前記仮想空間生成部は、前記アイテムに対応させて前記第3オブジェクトを生成することが好ましい。
Further, in the virtual space experience system of the present invention,
It is provided with an item state recognition unit that recognizes the state of an item existing in the real space.
The predetermined object includes a third object operated by at least one of the first user and the second user.
It is preferable that the virtual space generation unit generates the third object in correspondence with the item.

このように、操作対象である第3オブジェクトを、現実空間に実際に存在しているアイテムに対応させて生成するようにすると、仮想空間でユーザがアバターを介して第3オブジェクトに行った動作の結果が、現実空間に対応するアイテムに反映されるようになる。これにより、仮想空間におけるアバターの動作の結果を、現実空間のアイテムに反映させたかのように、ユーザに感じさせることができる。 In this way, when the third object to be operated is generated corresponding to the item that actually exists in the real space, the operation performed by the user on the third object via the avatar in the virtual space is performed. The result will be reflected in the item corresponding to the real space. As a result, the user can feel as if the result of the avatar's operation in the virtual space is reflected in the item in the real space.

また、このように構成すると、ユーザは、第3オブジェクトに触れたときに、現実空間でユーザがアイテムに触れることになる。これにより、ユーザに第3オブジェクトを触っているという感覚を与えることができる。ひいては、ユーザの仮想空間への没入感を高めることができる。 Further, in this configuration, when the user touches the third object, the user touches the item in the real space. This gives the user the feeling of touching the third object. As a result, the user's immersive feeling in the virtual space can be enhanced.

実施形態に係るVRシステムの概略構成を示す模式図。The schematic diagram which shows the schematic structure of the VR system which concerns on embodiment. 図1のVRシステムの処理部の構成を示すブロック図。The block diagram which shows the structure of the processing part of the VR system of FIG. 図1のVRシステムが、ユーザに認識させる仮想空間の模式図。The schematic diagram of the virtual space that the VR system of FIG. 1 makes a user recognize. 図1のVRシステムが、使用を開始された際に実行する処理を示すフローチャート。FIG. 5 is a flowchart showing a process to be executed when the VR system of FIG. 1 is started to be used. 図1のVRシステムが、第1オブジェクトが操作された際に実行する処理を示すフローチャート。The flowchart which shows the process which the VR system of FIG. 1 executes when the 1st object is operated. 図1のVRシステムが、第1オブジェクトの形状が変更された際に、ユーザに認識させる仮想空間の模式図。The schematic diagram of the virtual space which the VR system of FIG. 1 makes a user recognize when the shape of the 1st object is changed. 図1のVRシステムが、第1オブジェクトの姿勢及び方向が変更された際に、ユーザに認識させる仮想空間の模式図。FIG. 5 is a schematic diagram of a virtual space in which the VR system of FIG. 1 makes a user recognize when the posture and direction of the first object are changed. 図1のVRシステムが、第2オブジェクトが操作された際に実行する処理を示すフローチャート。The flowchart which shows the process which the VR system of FIG. 1 executes when the 2nd object is operated. 図1のVRシステムが、第2オブジェクトの姿勢及び方向が変更された際に、ユーザに認識させる仮想空間の模式図。FIG. 5 is a schematic diagram of a virtual space in which the VR system of FIG. 1 makes the user recognize when the posture and direction of the second object are changed. 図1のVRシステムが、第3オブジェクトが操作された際に実行する処理を示すフローチャート。The flowchart which shows the process which the VR system of FIG. 1 executes when the 3rd object is operated. 図1のVRシステムが、第3オブジェクトの状態が変更された際に、ユーザに認識させる仮想空間の模式図。The schematic diagram of the virtual space which the VR system of FIG. 1 makes a user recognize when the state of a 3rd object is changed. 変形例に係るVRシステムが、オブジェクトが操作された際に、ユーザに認識させる仮想空間の模式図。The schematic diagram of the virtual space which a VR system which concerns on a modification makes a user recognize when an object is operated.

以下、図面を参照して、実施形態に係る仮想空間体感システムであるVRシステムSについて説明する。VRシステムSは、仮想空間にユーザ自身が存在していると認識させて、ユーザに仮想現実(いわゆるVR(virtual reality))を体感させるシステムである。 Hereinafter, the VR system S, which is a virtual space experience system according to the embodiment, will be described with reference to the drawings. The VR system S is a system that allows the user to experience virtual reality (so-called VR (virtual reality)) by recognizing that the user himself / herself exists in the virtual space.

図1に示すように、VRシステムSは、第1現実空間RS1に存在している第1ユーザU1と、第1現実空間RS1とは異なる位置に存在する第2現実空間RS2に存在している第2ユーザU2とが、同一の仮想空間VS(図3参照)を介して、コミュニケーションをとることが可能なものとして構成されている。 As shown in FIG. 1, the VR system S exists in the first user U1 existing in the first real space RS1 and in the second real space RS2 existing at a position different from the first real space RS1. The second user U2 is configured to be able to communicate with each other via the same virtual space VS (see FIG. 3).

なお、以下の説明においては、第1現実空間RS1と第2現実空間RS2とを総称して、現実空間RSということがある。また、第1ユーザU1と第2ユーザU2とを総称して、ユーザUということがある。また、第1現実空間RS1には、第1カメラ2aが設置されており、第2現実空間RS2には、第2カメラ2bが設置されている。そして、第1カメラ2aと第2カメラ2bとを総称して、カメラ2ということがある。 In the following description, the first real space RS1 and the second real space RS2 may be collectively referred to as a real space RS. Further, the first user U1 and the second user U2 may be collectively referred to as a user U. Further, the first camera 2a is installed in the first real space RS1, and the second camera 2b is installed in the second real space RS2. The first camera 2a and the second camera 2b are collectively referred to as the camera 2.

また、以下の説明においては、「状態」とは、ユーザUの意図又は操作に応じて変化し得るものを指す。例えば、形状、大きさ、色、姿勢、方向、座標の位置、身体又は機構の動作状態等を指す。そのため、状態の「変化」、「変更」とは、形状、大きさ、色、姿勢、方向の変化又は変更、座標の移動、動作の開始、進行及び停止等を指す。 Further, in the following description, the "state" refers to a state that can be changed according to the intention or operation of the user U. For example, it refers to the shape, size, color, posture, direction, coordinate position, operating state of the body or mechanism, and the like. Therefore, the "change" and "change" of the state refer to a change or change of shape, size, color, posture, direction, movement of coordinates, start, progress and stop of operation, and the like.

また、「対応した形状」とは、同一の形状の他、相似した形(すなわち、同一の形状でサイズが異なる形状)、デフォルメした形状、一部を切り出したものと同じ形状等を含む。 Further, the "corresponding shape" includes, in addition to the same shape, a similar shape (that is, a shape having the same shape but a different size), a deformed shape, the same shape as a partially cut out shape, and the like.

本実施形態では、教師役である第1ユーザU1が、仮想空間VSを介して、第1ユーザU1とは離れた場所にいる生徒役である第2ユーザU2に、第2ユーザU2とともに第2現実空間RS2に存在しているアイテムIである組み立て式の模型の作り方を教授するために、VRシステムSを使用する場合を例として説明する。 In the present embodiment, the first user U1 who plays the role of a teacher is sent to the second user U2 who is a student who is located away from the first user U1 via the virtual space VS, together with the second user U2. In order to teach how to make a prefabricated model which is an item I existing in the real space RS2, a case where the VR system S is used will be described as an example.

なお、本発明の仮想空間体感システムは、そのような構成に限定されるものではなく、3つ以上の現実空間の各々にユーザが存在していてもよいし、複数のユーザが同一の現実空間に存在していてもよい。 The virtual space experience system of the present invention is not limited to such a configuration, and a user may exist in each of three or more real spaces, or a plurality of users may be in the same real space. May be present in.

[システムの概略構成]
まず、図1及び図2を参照して、VRシステムSの概略構成について説明する。
[Outline configuration of system]
First, a schematic configuration of the VR system S will be described with reference to FIGS. 1 and 2.

現実空間RSに存在するユーザU、アイテムI及びテーブルTに取り付けられる複数の標識1と、ユーザU、アイテムI及びテーブルT(厳密には、それらに取り付けられた標識1)を撮影するカメラ2と、ユーザUに認識させる仮想空間VS(図3等参照)の画像及び音声を決定するサーバ3と、決定された画像及び音声をプレイヤーに認識させるヘッドマウントディスプレイ(以下、「HMD4」という。)とを備えている。 A plurality of signs 1 attached to the user U, the item I, and the table T existing in the real space RS, and a camera 2 for photographing the user U, the item I, and the table T (strictly speaking, the signs 1 attached to them). , A server 3 that determines the image and sound of the virtual space VS (see FIG. 3 and the like) to be recognized by the user U, and a head-mounted display (hereinafter referred to as "HMD4") that causes the player to recognize the determined image and sound. It has.

VRシステムSでは、第1カメラ2a、及び、第1ユーザU1の装着しているHMD4は、サーバ3と、無線で相互に情報を送受信可能となっている。同様に、第2カメラ2b、及び、第2ユーザU2の装着しているHMD4は、サーバ3と、無線で相互に情報を送受信可能となっている。ただし、それらのいずれか同士を、無線に代わり有線で相互に情報を送受信可能に構成してもよい。 In the VR system S, the first camera 2a and the HMD4 worn by the first user U1 can wirelessly transmit and receive information to and from the server 3. Similarly, the second camera 2b and the HMD4 worn by the second user U2 can wirelessly transmit and receive information to and from the server 3. However, any one of them may be configured to be able to send and receive information to and from each other by wire instead of wirelessly.

複数の標識1のうちユーザUに取り付けられているものは、ユーザUの装着するHMD4、手袋及び靴を介して、ユーザUの頭部、両手及び両足のそれぞれに取り付けられている。 Of the plurality of signs 1, those attached to the user U are attached to the head, both hands, and both feet of the user U via the HMD4, gloves, and shoes worn by the user U.

また、複数の標識1のうちアイテムI及びテーブルTに取り付けられているものは、第2カメラ2bで撮影したアイテムI及びテーブルTの画像において特徴点となる位置に取り付けられている。 Further, among the plurality of signs 1, those attached to the item I and the table T are attached to the positions that are feature points in the images of the item I and the table T taken by the second camera 2b.

本実施形態では、アイテムIは、第2現実空間RS2のテーブルTに載置された組み立て式の車の模型であり、標識1は、その模型の各パーツの中央部、縁、角の近傍等に取り付けられている。テーブルTは、標識1は、円形の天板と4本の脚からなり、天板の縁と、脚の端部等に取り付けられている。 In the present embodiment, the item I is a model of an assembled car placed on the table T of the second real space RS2, and the sign 1 is a central portion, an edge, a corner vicinity, etc. of each part of the model. It is attached to. On the table T, the sign 1 is composed of a circular top plate and four legs, and is attached to the edge of the top plate, the ends of the legs, and the like.

なお、標識1は、後述するようにユーザU、アイテムI又はテーブルTの現実空間RSにおける形状、姿勢、座標及び方向を認識するために用いられるものである。そのため、標識1の取り付け位置は、VRシステムSを構成する他の機器に応じて、適宜変更してよい。 The sign 1 is used to recognize the shape, posture, coordinates, and direction of the user U, the item I, or the table T in the real space RS as described later. Therefore, the mounting position of the sign 1 may be appropriately changed according to other devices constituting the VR system S.

カメラ2のうち、第1現実空間RS1に設置されている第1カメラ2aは、第1ユーザU1の動作可能範囲(すなわち、姿勢の変化、座標の移動、並びに、姿勢及び方向の変化等を実行し得る範囲)を、多方向から撮影可能なように複数設置されている。 Of the cameras 2, the first camera 2a installed in the first real space RS1 executes the movable range of the first user U1 (that is, the change in posture, the movement of coordinates, the change in posture and direction, and the like. Multiple possible ranges) are installed so that images can be taken from multiple directions.

また、カメラ2のうち、第2現実空間RS2に設置されている第2カメラ2bは、第2ユーザU2、アイテムI及びテーブルTの動作可能範囲(すなわち、姿勢の変化、座標の移動、並びに、形状及び方向の変化等を実行し得る範囲)を、多方向から撮影可能なように複数設置されている。 Further, among the cameras 2, the second camera 2b installed in the second real space RS2 has a movable range of the second user U2, the item I and the table T (that is, a change in posture, movement of coordinates, and movement of coordinates, and A plurality of areas (ranges in which changes in shape and direction can be performed) are installed so that images can be taken from multiple directions.

サーバ3は、カメラ2が撮影した画像から標識1を認識し、その認識された標識1の現実空間RSにおける座標に基づいて、ユーザU、アイテムI又はテーブルTの形状、姿勢、座標及び方向を認識する。また、サーバ3は、その形状、姿勢、座標及び方向に基づいて、ユーザUに認識させる画像及び音声を決定する。 The server 3 recognizes the sign 1 from the image taken by the camera 2, and based on the coordinates of the recognized sign 1 in the real space RS, determines the shape, orientation, coordinates, and direction of the user U, the item I, or the table T. recognize. Further, the server 3 determines the image and the sound to be recognized by the user U based on the shape, the posture, the coordinates and the direction.

HMD4は、ユーザUの頭部に装着される。図2に示すように、HMD4は、ユーザUに、サーバ3によって決定された仮想空間VSの画像をユーザUの認識させるためのモニタ40(画像表示器)と、サーバ3によって決定された仮想空間VSの音声をユーザUに認識させるためのスピーカ41(音声発生器)とを有している。 The HMD4 is attached to the head of the user U. As shown in FIG. 2, the HMD 4 has a monitor 40 (image display) for causing the user U to recognize the image of the virtual space VS determined by the server 3, and a virtual space determined by the server 3. It has a speaker 41 (sound generator) for causing the user U to recognize the VS sound.

このVRシステムSを用いてユーザUに仮想現実を体感させる場合、ユーザUは、仮想空間VSの画像と音声のみを認識させられて、ユーザU自身が後述する第1アバター5a又は第2アバター5bとして仮想空間に存在していると認識させられる。すなわち、VRシステムSは、いわゆる没入型のシステムとして構成されている。 When the user U is made to experience the virtual reality by using this VR system S, the user U is made to recognize only the image and the sound of the virtual space VS, and the user U himself / herself is made to recognize the first avatar 5a or the second avatar 5b described later. Is recognized as existing in the virtual space. That is, the VR system S is configured as a so-called immersive system.

なお、VRシステムSでは、ユーザU、アイテムI及びテーブルTの現実空間RSにおける状態を認識するシステムとして、標識1とカメラ2とサーバ3とによって構成された、いわゆるモーションキャプチャー装置を備えている。 The VR system S includes a so-called motion capture device composed of a sign 1, a camera 2, and a server 3 as a system for recognizing the states of the user U, the item I, and the table T in the real space RS.

しかし、本発明の仮想空間体感システムは、このような構成に限定されるものではない。例えば、モーションキャプチャー装置を使用する場合には、上記の構成のものの他、標識及びカメラの数が上記構成とは異なる(例えば、それぞれの仮想空間に1つずつ設けられている)ものを用いてもよい。 However, the virtual space experience system of the present invention is not limited to such a configuration. For example, when using a motion capture device, in addition to the above configuration, the number of signs and cameras is different from the above configuration (for example, one is provided in each virtual space). May be good.

また、モーションキャプチャー装置以外の装置を用いて、ユーザ、アイテム又はテーブルの現実空間における状態を認識するようにしてもよい。具体的には、例えば、HMDにGPS等のセンサを搭載し、そのセンサからの出力に基づいて、ユーザ、アイテム又はテーブルの状態を認識するようにしてもよい。また、そのようなセンサと、上記のようなモーションキャプチャー装置を併用してもよい。 In addition, a device other than the motion capture device may be used to recognize the state of the user, item, or table in the real space. Specifically, for example, a sensor such as GPS may be mounted on the HMD, and the state of the user, item, or table may be recognized based on the output from the sensor. Further, such a sensor may be used in combination with the motion capture device as described above.

[処理部の構成]
次に、図2及び図3を用いて、サーバ3の構成を詳細に説明する。
[Configuration of processing unit]
Next, the configuration of the server 3 will be described in detail with reference to FIGS. 2 and 3.

サーバ3は、CPU、RAM、ROM、インターフェース回路等を含む1つ又は複数の電子回路ユニットにより構成されている。図2に示すように、サーバ3は、実装されたハードウェア構成又はプログラムにより実現される機能として、仮想空間生成部30と、ユーザ状態認識部31と、アバター制御部32と、アイテム状態認識部33と、オブジェクト制御部34と、出力情報決定部35とを備えている。 The server 3 is composed of one or a plurality of electronic circuit units including a CPU, RAM, ROM, an interface circuit, and the like. As shown in FIG. 2, the server 3 has a virtual space generation unit 30, a user state recognition unit 31, an avatar control unit 32, and an item state recognition unit as functions realized by the implemented hardware configuration or program. It includes 33, an object control unit 34, and an output information determination unit 35.

図3に示すように、仮想空間生成部30は、第1ユーザU1が存在している第1現実空間RS1及び第2ユーザU2が存在している第2現実空間RS2に対応する仮想空間VSの画像(厳密には、その背景となる画像)、及び、それに関連する音声を生成する。 As shown in FIG. 3, the virtual space generation unit 30 is a virtual space VS corresponding to the first real space RS1 in which the first user U1 exists and the second real space RS2 in which the second user U2 exists. Generates an image (strictly speaking, the background image) and related audio.

また、仮想空間生成部30は、仮想空間VSに存在するアバターとして、第1ユーザU1に対応する第1アバター5a及び第2アバター5bの画像、及び、それに関連する音声を生成する。なお、以下においては、第1アバター5aと第2アバター5bとを総称して、アバター5ということがある。本実施形態では、アバター5の各々は、動物を擬人化したものとなっており、対応するユーザUの動作に対応して動作する。 Further, the virtual space generation unit 30 generates images of the first avatar 5a and the second avatar 5b corresponding to the first user U1 and sounds related thereto as avatars existing in the virtual space VS. In the following, the first avatar 5a and the second avatar 5b may be collectively referred to as the avatar 5. In the present embodiment, each of the avatars 5 is anthropomorphic to an animal, and operates in response to the corresponding operation of the user U.

また、仮想空間生成部30は、仮想空間VSに存在する所定のオブジェクトを生成する。その所定のオブジェクトには、仮想空間VSの環境(例えば、仮想空間VSにのみ存在する植物等)を表すためのオブジェクトの他に、第1ユーザU1が観察し、操作する第1オブジェクト6、第2ユーザU2が観察する第2オブジェクト7、第2ユーザU2が操作する第3オブジェクト8、及び、第3オブジェクト8が載置される第4オブジェクト9を含んでいる。 Further, the virtual space generation unit 30 generates a predetermined object existing in the virtual space VS. In addition to the object for representing the environment of the virtual space VS (for example, a plant existing only in the virtual space VS), the predetermined object includes the first object 6 and the first object U1 observed and operated by the first user U1. It includes a second object 7 observed by the second user U2, a third object 8 operated by the second user U2, and a fourth object 9 on which the third object 8 is placed.

第1オブジェクト6は、仮想空間VSで、第1ユーザU1に対応する第1アバター5aの近傍となる位置に生成される。第1オブジェクト6の形状、座標、姿勢及び方向は、第1アバター5a(すなわち、第1ユーザU1)の動作に応じて、変更可能となっている。 The first object 6 is generated in the virtual space VS at a position near the first avatar 5a corresponding to the first user U1. The shape, coordinates, posture, and direction of the first object 6 can be changed according to the movement of the first avatar 5a (that is, the first user U1).

第2オブジェクト7は、仮想空間VSで、第2ユーザU2に対応する第2アバター5bの近傍となる位置に生成される。すなわち、第2オブジェクト7は、第1オブジェクト6の座標とは異なる座標に位置している。第2オブジェクト7の座標、姿勢及び方向は、第2アバター5b(すなわち、第2ユーザU2)の動作に応じて、変更可能となっている。 The second object 7 is generated in the virtual space VS at a position near the second avatar 5b corresponding to the second user U2. That is, the second object 7 is located at a coordinate different from the coordinates of the first object 6. The coordinates, posture, and direction of the second object 7 can be changed according to the movement of the second avatar 5b (that is, the second user U2).

第3オブジェクト8は、仮想空間VSで、第2現実空間に存在しているアイテムIに対応する位置に生成される。すなわち、第3オブジェクト8は、第1オブジェクト6の座標及び第2オブジェクト7の座標とは異なる座標に位置している。具体的には、第3オブジェクト8は、テーブルTに対応する第4オブジェクト9に載置された状態となる座標に生成される。 The third object 8 is generated in the virtual space VS at a position corresponding to the item I existing in the second real space. That is, the third object 8 is located at a coordinate different from the coordinates of the first object 6 and the coordinates of the second object 7. Specifically, the third object 8 is generated at the coordinates in which it is placed on the fourth object 9 corresponding to the table T.

第3オブジェクト8の形状、座標、姿勢及び方向は、第2アバター5bの第3オブジェクト8に対する動作(すなわち、第2ユーザU2のアイテムIに対する操作)に応じて、変更可能となっている。 The shape, coordinates, posture, and direction of the third object 8 can be changed according to the operation of the second avatar 5b with respect to the third object 8 (that is, the operation of the second user U2 with respect to the item I).

第3オブジェクト8の形状は、アイテムIに対応した形状となっている。VRシステムSの使用を開始した際には、第1オブジェクト6及び第2オブジェクト7の形状は、その第3オブジェクト8の形状に対応するように生成される。その後においては、第1オブジェクト6及び第2オブジェクト7の形状は、第3オブジェクト8の形状とは独立して変化する。 The shape of the third object 8 is a shape corresponding to the item I. When the use of the VR system S is started, the shapes of the first object 6 and the second object 7 are generated so as to correspond to the shapes of the third object 8. After that, the shapes of the first object 6 and the second object 7 change independently of the shapes of the third object 8.

本実施形態では、第2現実空間RS2に存在しているアイテムIは、組み立て式の車の模型であり、本体、屋根、フロントガラス及びタイヤの4つのパーツで構成されている。そして、第3オブジェクト8は、アイテムIに対応するものとして生成される。 In the present embodiment, the item I existing in the second real space RS2 is a model of an assembled car, and is composed of four parts: a main body, a roof, a windshield, and a tire. Then, the third object 8 is generated as corresponding to the item I.

そのため、第3オブジェクト8は、そのアイテムIの各パーツに対応するように、本体部分である第1パーツ80、屋根部分である第2パーツ81、フロントガラスである第3パーツ82、及び、タイヤである第4パーツ83で構成される(図12参照)。 Therefore, the third object 8 has a first part 80 which is a main body part, a second part 81 which is a roof part, a third part 82 which is a windshield, and a tire so as to correspond to each part of the item I. It is composed of the fourth part 83 (see FIG. 12).

また、第3オブジェクト8に対応する第1オブジェクト6は、本体部分である第1パーツ60、屋根部分である第2パーツ61、フロントガラスである第3パーツ62、及び、タイヤである第4パーツ63で構成される(図6等参照)。同様に、第2オブジェクト7も、本体部分である第1パーツ70、屋根部分である第2パーツ71、フロントガラスである第3パーツ72、及び、タイヤである第4パーツ73で構成される(図6等参照)。 Further, the first object 6 corresponding to the third object 8 is a first part 60 which is a main body part, a second part 61 which is a roof part, a third part 62 which is a windshield, and a fourth part which is a tire. It is composed of 63 (see FIG. 6 and the like). Similarly, the second object 7 is also composed of a first part 70 which is a main body part, a second part 71 which is a roof part, a third part 72 which is a windshield, and a fourth part 73 which is a tire ( See FIG. 6 etc.).

第4オブジェクト9は、仮想空間VSで、第2現実空間に存在しているテーブルTに対応する位置に生成される。第4オブジェクトの座標、姿勢及び方向は、第2アバター5bの第4オブジェクト9に対する動作(すなわち、第2ユーザU2のテーブルTに対する操作)に応じて、変更可能となっている。第4オブジェクト9の形状は、テーブルTに対応した形状となっている。 The fourth object 9 is generated in the virtual space VS at a position corresponding to the table T existing in the second real space. The coordinates, posture, and direction of the fourth object can be changed according to the operation of the second avatar 5b with respect to the fourth object 9 (that is, the operation of the second user U2 with respect to the table T). The shape of the fourth object 9 is a shape corresponding to the table T.

図2に示すように、ユーザ状態認識部31は、第1カメラ2aが撮影した標識1を含む第1ユーザU1の画像データに基づいて、第1ユーザU1の状態を認識し、第2カメラ2bが撮影した標識1を含む第2ユーザU2の画像データに基づいて、第2ユーザU2の状態を認識する。 As shown in FIG. 2, the user state recognition unit 31 recognizes the state of the first user U1 based on the image data of the first user U1 including the sign 1 taken by the first camera 2a, and the second camera 2b Recognizes the state of the second user U2 based on the image data of the second user U2 including the sign 1 taken by the user.

また、ユーザ状態認識部31は、ユーザ座標認識部31aと、ユーザ姿勢認識部31bと、ユーザ方向認識部31cとを有している。ユーザ座標認識部31a、ユーザ姿勢認識部31b及びユーザ方向認識部31cは、ユーザUの画像データからユーザUに取り付けられている標識1を抽出し、その抽出結果に基づいて、ユーザUの座標、姿勢及び方向を認識する。 Further, the user state recognition unit 31 has a user coordinate recognition unit 31a, a user posture recognition unit 31b, and a user direction recognition unit 31c. The user coordinate recognition unit 31a, the user attitude recognition unit 31b, and the user direction recognition unit 31c extract the marker 1 attached to the user U from the image data of the user U, and based on the extraction result, the coordinates of the user U, Recognize posture and direction.

アバター制御部32は、ユーザ状態認識部31によって認識された第1ユーザU1の状態の変化に応じて、第1アバター5aの状態(具体的には、座標、姿勢及び方向)を制御し、ユーザ状態認識部31によって認識された第2ユーザU2の状態の変化に応じて、第2アバター5bの状態(具体的には、座標、姿勢及び方向)を制御する。 The avatar control unit 32 controls the state (specifically, coordinates, posture and direction) of the first avatar 5a according to the change in the state of the first user U1 recognized by the user state recognition unit 31, and the user. The state (specifically, coordinates, posture, and direction) of the second avatar 5b is controlled according to the change in the state of the second user U2 recognized by the state recognition unit 31.

アイテム状態認識部33は、第2カメラ2bが撮影した標識1を含むアイテムI及びテーブルTの画像データに基づいて、アイテムI及びテーブルTの状態を認識する。アイテム状態認識部33は、アイテム形状認識部33aと、アイテム座標認識部33bと、アイテム姿勢認識部33cと、アイテム方向認識部33dとを有している。 The item state recognition unit 33 recognizes the state of the item I and the table T based on the image data of the item I and the table T including the sign 1 taken by the second camera 2b. The item state recognition unit 33 includes an item shape recognition unit 33a, an item coordinate recognition unit 33b, an item posture recognition unit 33c, and an item direction recognition unit 33d.

アイテム形状認識部33a、アイテム座標認識部33b、アイテム姿勢認識部33c、及びアイテム方向認識部33dは、アイテムIの画像データ及びテーブルTの画像データからアイテムI及びテーブルTに取り付けられている標識1を抽出し、その抽出結果に基づいて、アイテムI及びテーブルTの形状、座標、姿勢及び方向を認識する。 The item shape recognition unit 33a, the item coordinate recognition unit 33b, the item attitude recognition unit 33c, and the item direction recognition unit 33d are attached to the item I and the table T from the image data of the item I and the image data of the table T. Is extracted, and the shape, coordinates, orientation, and direction of the item I and the table T are recognized based on the extraction result.

オブジェクト制御部34は、アバター制御部32によって認識されたアバター5の動作に応じて、第3オブジェクト8及び第4オブジェクト9の状態を制御する。 The object control unit 34 controls the states of the third object 8 and the fourth object 9 according to the operation of the avatar 5 recognized by the avatar control unit 32.

また、オブジェクト制御部34は、第1オブジェクト制御部34aと、第2オブジェクト制御部34bと、第3オブジェクト制御部34cと、第4オブジェクト制御部34dとを有している。 Further, the object control unit 34 has a first object control unit 34a, a second object control unit 34b, a third object control unit 34c, and a fourth object control unit 34d.

第1オブジェクト制御部34aは、第1アバター5a(すなわち、第1ユーザU1)の動作に応じて、第1オブジェクト6の形状(組み立ての状態)、座標、姿勢(ヨー軸に対する傾き)及び方向(ヨー軸を中心とする位相)を制御する。 The first object control unit 34a responds to the movement of the first avatar 5a (that is, the first user U1) by the shape (assembled state), coordinates, posture (tilt with respect to the yaw axis), and direction (inclination with respect to the yaw axis) of the first object 6. The phase around the yaw axis) is controlled.

第2オブジェクト制御部34bは、第2アバター5b(すなわち、第2ユーザU2)の動作に応じて、第2オブジェクト7の座標、姿勢及び方向を制御する。また、第2オブジェクト制御部34bは、第1オブジェクト6の形状の変化に応じて、第2オブジェクト7の形状を制御する。 The second object control unit 34b controls the coordinates, posture, and direction of the second object 7 according to the operation of the second avatar 5b (that is, the second user U2). Further, the second object control unit 34b controls the shape of the second object 7 according to the change in the shape of the first object 6.

第3オブジェクト制御部34cは、第2アバター5b(すなわち、第2ユーザU2)の動作、及び、アイテムIの状態に応じて、第3オブジェクト8の形状、座標、姿勢及び方向を制御する。 The third object control unit 34c controls the shape, coordinates, posture, and direction of the third object 8 according to the movement of the second avatar 5b (that is, the second user U2) and the state of the item I.

第4オブジェクト制御部34dは、第2アバター5b(すなわち、第2ユーザU2)の動作、及び、テーブルTの状態に応じて、第4オブジェクト9の座標、姿勢及び方向を制御する。ただし、本実施形態では、第4オブジェクト9の状態の変更は行われない。 The fourth object control unit 34d controls the coordinates, posture, and direction of the fourth object 9 according to the operation of the second avatar 5b (that is, the second user U2) and the state of the table T. However, in the present embodiment, the state of the fourth object 9 is not changed.

出力情報決定部35は、HMD4を介して、ユーザUに認識させる仮想空間VSに関する情報を決定する。この出力情報決定部35は、画像決定部35aと、音声決定部35bとを有している。 The output information determination unit 35 determines the information regarding the virtual space VS to be recognized by the user U via the HMD4. The output information determination unit 35 has an image determination unit 35a and a voice determination unit 35b.

画像決定部35aは、アバター5の状態、並びに、第1オブジェクト6、第2オブジェクト7、第3オブジェクト8及び第4オブジェクト9の状態に基づいて、HMD4のモニタ40を介して、アバター5に対応するユーザUに認識させる仮想空間VSの画像を決定する。 The image determination unit 35a corresponds to the avatar 5 via the monitor 40 of the HMD4 based on the state of the avatar 5 and the states of the first object 6, the second object 7, the third object 8 and the fourth object 9. The image of the virtual space VS to be recognized by the user U is determined.

音声決定部35bは、アバター5の状態、並びに、第1オブジェクト6、第2オブジェクト7、第3オブジェクト8及び第4オブジェクト9の状態に基づいて、HMD4のスピーカ41を介して、アバター5に対応するユーザUに認識させる仮想空間VSの画像に関連する音声を決定する。 The voice determination unit 35b corresponds to the avatar 5 via the speaker 41 of the HMD4 based on the state of the avatar 5 and the states of the first object 6, the second object 7, the third object 8 and the fourth object 9. The sound related to the image of the virtual space VS to be recognized by the user U is determined.

なお、本発明の仮想空間体感システムを構成する各処理部は、上記のような構成に限定されるものではない。例えば、本実施形態においてサーバ3に設けられている処理部の一部を、HMD4に設けてもよい。また、複数のサーバを用いてもよいし、サーバ3を省略してHMD4に搭載されているCPUを協働させて構成してもよい。 It should be noted that each processing unit constituting the virtual space experience system of the present invention is not limited to the above configuration. For example, a part of the processing unit provided in the server 3 in the present embodiment may be provided in the HMD 4. Further, a plurality of servers may be used, or the server 3 may be omitted and the CPUs mounted on the HMD 4 may be cooperated with each other.

[実行される処理]
次に、図2〜図12を参照して、VRシステムSを用いてユーザUに仮想空間VSを体感させる際に、VRシステムSの実行する処理について説明する。
[Process to be executed]
Next, with reference to FIGS. 2 to 12, a process executed by the VR system S when the user U is made to experience the virtual space VS by using the VR system S will be described.

[使用が開始された際における処理]
まず、図2〜図4を参照して、VRシステムSの使用が開始された際に、VRシステムSの各処理部が実行する処理について説明する。
[Processing when use starts]
First, with reference to FIGS. 2 to 4, when the use of the VR system S is started, the processing executed by each processing unit of the VR system S will be described.

この処理においては、まず、サーバ3の仮想空間生成部30が、カメラ2によって撮影された画像に基づいて、仮想空間VS、並びに、その仮想空間VSに存在させるアバター5及び各種オブジェクトを生成する(図4/STEP100)。 In this process, first, the virtual space generation unit 30 of the server 3 generates a virtual space VS, an avatar 5 to exist in the virtual space VS, and various objects based on the image taken by the camera 2 ((). FIG. 4 / STEP100).

具体的には、図3に示すように、仮想空間生成部30が、仮想空間VSの背景となる画像を生成する。また、仮想空間生成部30は、カメラ2が撮影した画像のうち、ユーザUの画像に基づいて、仮想空間VSに存在させるアバター5の画像を生成し、アイテムIの画像に基づいて、第1オブジェクト6、第2オブジェクト7及び第3オブジェクト8の画像を生成し、テーブルTの画像に基づいて、第4オブジェクト9の画像を生成する。 Specifically, as shown in FIG. 3, the virtual space generation unit 30 generates an image as a background of the virtual space VS. Further, the virtual space generation unit 30 generates an image of the avatar 5 existing in the virtual space VS based on the image of the user U among the images taken by the camera 2, and the first image is based on the image of the item I. The images of the object 6, the second object 7, and the third object 8 are generated, and the image of the fourth object 9 is generated based on the image of the table T.

次に、サーバ3のオブジェクト制御部34が、第2現実空間RS2におけるアイテムIの状態に基づいて、仮想空間VSにおける第1オブジェクト6、第2オブジェクト7及び第3オブジェクト8の状態を決定する(図4/STEP101)。 Next, the object control unit 34 of the server 3 determines the states of the first object 6, the second object 7, and the third object 8 in the virtual space VS based on the state of the item I in the second real space RS2 ( FIG. 4 / STEP101).

具体的には、まず、アイテム状態認識部33が、カメラ2が撮影したアイテムIの状態に基づいて、第2現実空間RS2におけるアイテムIの状態を認識する。その後、オブジェクト制御部34の第3オブジェクト制御部34cが、認識されたアイテムIの状態に基づいて、第3オブジェクト8の状態を決定する。 Specifically, first, the item state recognition unit 33 recognizes the state of the item I in the second real space RS2 based on the state of the item I photographed by the camera 2. After that, the third object control unit 34c of the object control unit 34 determines the state of the third object 8 based on the recognized state of the item I.

さらにその後、オブジェクト制御部34の第1オブジェクト制御部34a及び第2オブジェクト制御部34bが、第3オブジェクト8の状態に対応するようにして、第1オブジェクト6及び第2オブジェクト7の状態を決定する。 After that, the first object control unit 34a and the second object control unit 34b of the object control unit 34 determine the states of the first object 6 and the second object 7 so as to correspond to the states of the third object 8. ..

また、このとき、アイテム状態認識部33が、カメラ2が撮影したテーブルTの状態に基づいて、第2現実空間RS2におけるテーブルTの状態を認識する。その後、オブジェクト制御部34の第4オブジェクト制御部34dが、認識されたテーブルTの状態に基づいて、第4オブジェクト9の状態を決定する。 At this time, the item state recognition unit 33 recognizes the state of the table T in the second real space RS2 based on the state of the table T photographed by the camera 2. After that, the fourth object control unit 34d of the object control unit 34 determines the state of the fourth object 9 based on the recognized state of the table T.

次に、サーバ3のアバター制御部32が、現実空間RSにおけるユーザUの各々の状態に基づいて、仮想空間VSにおいてユーザUの各々に対応するアバター5の状態を決定する(図4/STEP102)。 Next, the avatar control unit 32 of the server 3 determines the state of the avatar 5 corresponding to each user U in the virtual space VS based on each state of the user U in the real space RS (FIG. 4 / STEP102). ..

具体的には、まず、ユーザ状態認識部31が、カメラ2が撮影したユーザUの状態に基づいて、現実空間RSにおけるユーザUの状態を認識する。その後、アバター制御部32が、認識されたユーザUの状態に基づいて、アバター5の状態を決定する。 Specifically, first, the user state recognition unit 31 recognizes the state of the user U in the real space RS based on the state of the user U photographed by the camera 2. After that, the avatar control unit 32 determines the state of the avatar 5 based on the recognized state of the user U.

次に、サーバ3の出力情報決定部35の画像決定部35a及び音声決定部35bが、第1オブジェクト6、第2オブジェクト7、第3オブジェクト8及び第4オブジェクト9の状態、並びに、アバター5の状態に基づいて、ユーザUに認識させる画像及び音声を決定する(図4/STEP103)。 Next, the image determination unit 35a and the voice determination unit 35b of the output information determination unit 35 of the server 3 determine the states of the first object 6, the second object 7, the third object 8 and the fourth object 9, and the avatar 5. Based on the state, the image and sound to be recognized by the user U are determined (FIG. 4 / STEP103).

次に、ユーザUの装着しているHMD4が、そのモニタ40に決定された画像を表示させるとともに、そのスピーカ41に決定された音声を発生させて(図4/STEP104)、今回の処理を終了する。 Next, the HMD4 worn by the user U displays the determined image on the monitor 40, generates the determined sound on the speaker 41 (FIG. 4 / STEP104), and ends the current process. do.

本実施形態では、これらの処理によって、図3に示すように、仮想空間VSにおいて、第1ユーザU1に対応する第1アバター5aと、第2ユーザU2に対応する第2アバター5bとが、互いに対面するように存在するように配置される。 In the present embodiment, as shown in FIG. 3, in the virtual space VS, the first avatar 5a corresponding to the first user U1 and the second avatar 5b corresponding to the second user U2 are caused by these processes. Arranged so that they exist facing each other.

また、第1ユーザU1に対応する第1アバター5aの近傍には、第1オブジェクト6が配置される。また、第2ユーザU2の近傍には、第2オブジェクト7が配置される。また、第3オブジェクト8及び第4オブジェクト9は、第2ユーザU2の近傍であり、且つ、第2現実空間RS2におけるアイテムI及びテーブルTに対応する位置に配置される。 Further, the first object 6 is arranged in the vicinity of the first avatar 5a corresponding to the first user U1. Further, the second object 7 is arranged in the vicinity of the second user U2. Further, the third object 8 and the fourth object 9 are arranged in the vicinity of the second user U2 and at positions corresponding to the item I and the table T in the second real space RS2.

これにより、この仮想空間VSを認識させられているユーザUは、自らに対応するアバター5として、自らがその仮想空間VSに存在し、自らの近傍に存在しているオブジェクトを、自らの手で(厳密にはアバター5を介して)操作できるように認識させられる。 As a result, the user U who is made to recognize this virtual space VS, as the avatar 5 corresponding to himself / herself, presents the object that exists in the virtual space VS and exists in the vicinity of himself / herself with his / her own hand. It is recognized so that it can be operated (strictly via avatar 5).

[第1オブジェクトが操作された際における処理]
次に、図2、図5〜図7を参照して、VRシステムSの使用が開始された後、第1ユーザU1が第1アバター5aを介して第1オブジェクト6を操作した際に、VRシステムSの各処理部が実行する処理について説明する。
[Processing when the first object is operated]
Next, referring to FIGS. 2, 5 to 7, when the first user U1 operates the first object 6 via the first avatar 5a after the use of the VR system S is started, the VR The processing executed by each processing unit of the system S will be described.

この処理においては、まず、ユーザ状態認識部31が、第1ユーザU1の状態が変化したか否かを判定する(図5/STEP200)。 In this process, first, the user state recognition unit 31 determines whether or not the state of the first user U1 has changed (FIG. 5 / STEP200).

第1ユーザU1の状態が変化していない場合(STEP200でNOの場合)、STEP200に戻り、所定の制御周期でSTEP200の判定を再度実行する。 If the state of the first user U1 has not changed (NO in STEP200), the process returns to STEP200, and the determination of STEP200 is executed again in a predetermined control cycle.

一方、第1ユーザU1の状態が変化した場合(STEP200でYESの場合)、アバター制御部32は、第1ユーザU1の状態の変化に基づいて、第1アバター5aの状態を変化させる(図5/STEP201)。 On the other hand, when the state of the first user U1 changes (YES in STEP 200), the avatar control unit 32 changes the state of the first avatar 5a based on the change in the state of the first user U1 (FIG. 5). / STEP201).

次に、オブジェクト制御部34が、アバター制御部32によって実行される第1アバター5aの状態の変化(すなわち、動作)が、第1オブジェクト6を操作するような動作であるか否かを判定する(図5/STEP202)。 Next, the object control unit 34 determines whether or not the change in the state (that is, the operation) of the first avatar 5a executed by the avatar control unit 32 is an operation such as operating the first object 6. (Fig. 5 / STEP202).

具体的には、オブジェクト制御部34は、仮想空間VSにおける第1オブジェクト6に対する第1アバター5aの座標、姿勢及び方向の変化が所定の座標、姿勢及び方向の変化に該当するか否かに基づいて、第1アバター5aの動作が第1オブジェクト6を操作するような動作であるか否かを判定する。 Specifically, the object control unit 34 is based on whether or not the change in the coordinates, posture, and direction of the first avatar 5a with respect to the first object 6 in the virtual space VS corresponds to the change in the predetermined coordinates, posture, and direction. Therefore, it is determined whether or not the operation of the first avatar 5a is an operation such as operating the first object 6.

本実施形態では、例えば、図6に示すように、オブジェクト制御部34は、第1アバター5aの手が第1オブジェクト6に含まれるパーツのいずれかを掴んだり移動させたりするような動作であるか否かを、判定する。 In the present embodiment, for example, as shown in FIG. 6, the object control unit 34 is an operation in which the hand of the first avatar 5a grabs or moves any of the parts included in the first object 6. Whether or not it is determined.

第1アバター5aの動作が第1オブジェクト6を操作するような動作である場合(STEP202でYESの場合)、オブジェクト制御部34の第1オブジェクト制御部34aが、第1アバター5aによる操作に基づいて、第1オブジェクト6の形状、座標、姿勢及び方向を変化させる(図5/STEP203)。 When the operation of the first avatar 5a is an operation such as operating the first object 6 (YES in STEP202), the first object control unit 34a of the object control unit 34 is based on the operation by the first avatar 5a. , The shape, coordinates, posture and direction of the first object 6 are changed (FIG. 5 / STEP203).

次に、オブジェクト制御部34の第1オブジェクト制御部34aが、第1オブジェクト6の形状の変化に基づいて、第2アバター5bの近傍に位置している第2オブジェクト7の形状を変化させる(図5/STEP204)。 Next, the first object control unit 34a of the object control unit 34 changes the shape of the second object 7 located in the vicinity of the second avatar 5b based on the change in the shape of the first object 6 (FIG. 5 / STEP204).

これらのSTEP202〜204の処理により、図6に示すように、第1オブジェクト6に対する操作の結果、第1オブジェクト6の形状が変更された場合には、第2オブジェクト7の形状も、それに同期して変化する。 As shown in FIG. 6, when the shape of the first object 6 is changed as a result of the operation on the first object 6 by the processing of STEP 202 to 204, the shape of the second object 7 is also synchronized with it. Change.

具体的には、例えば、第1アバター5aが、車の模型である第1オブジェクト6の屋根部分である第2パーツ61を本体部分である第1パーツ60に対して取り付ける操作を行って、第1オブジェクト6の形状を変化させたとする。 Specifically, for example, the first avatar 5a performs an operation of attaching the second part 61, which is the roof portion of the first object 6, which is a model of a car, to the first part 60, which is the main body portion. It is assumed that the shape of 1 object 6 is changed.

このとき、第1オブジェクト6に対応する形状を有している第2オブジェクト7の形状も、第1オブジェクト6の形状の変化に同期して変化する。具体的には、第2オブジェクト7の屋根部分である第2パーツ71が、本体部分である第2パーツ71に対して、自動的に取り付けられる。 At this time, the shape of the second object 7 having the shape corresponding to the first object 6 also changes in synchronization with the change in the shape of the first object 6. Specifically, the second part 71, which is the roof portion of the second object 7, is automatically attached to the second part 71, which is the main body portion.

ただし、図7に示すように、第1オブジェクト6に対する操作の結果、第1オブジェクト6の形状ではなく、座標、姿勢及び方向のいずれかが変更された場合には、第2オブジェクト7の対応する座標、姿勢及び方向は、それに同期せず変化しない。 However, as shown in FIG. 7, when any of the coordinates, the posture, and the direction is changed instead of the shape of the first object 6 as a result of the operation on the first object 6, the second object 7 corresponds to the change. Coordinates, attitudes and directions are out of sync with it and do not change.

具体的には、例えば、第1アバター5aが、図7に示した矢印の方向に、第1オブジェクト6の姿勢(ヨー軸に対する傾き)及び方向(ヨー軸を中心とする位相)を、図6に示した姿勢及び方向から変化させたとする。 Specifically, for example, the first avatar 5a shows the posture (tilt with respect to the yaw axis) and the direction (phase about the yaw axis) of the first object 6 in the direction of the arrow shown in FIG. It is assumed that the posture and direction shown in are changed.

このとき、第2オブジェクト7の姿勢及び方向は、第1オブジェクト6の姿勢及び方向の変化に同期せず変化しない。すなわち、第2オブジェクト7の姿勢及び方向は、第1オブジェクト6の状態の変化前と変化後とにおいて、変化しない。 At this time, the posture and direction of the second object 7 do not change in synchronization with the change of the posture and direction of the first object 6. That is, the posture and direction of the second object 7 do not change before and after the state of the first object 6.

次に、サーバ3の出力情報決定部35の画像決定部35a及び音声決定部35bが、仮想空間VSにおける第1オブジェクト6及び第2オブジェクト7の状態、並びに、アバター5の状態に基づいて、ユーザUに認識させる画像及び音声を決定する(図5/STEP205)。 Next, the image determination unit 35a and the voice determination unit 35b of the output information determination unit 35 of the server 3 are based on the states of the first object 6 and the second object 7 in the virtual space VS and the state of the avatar 5. The image and sound to be recognized by U are determined (Fig. 5 / STEP205).

同様に、第1アバター5aの動作が第1オブジェクト6を操作するような動作でない場合(STEP202でNOの場合)も、仮想空間VSにおける第1オブジェクト6及び第2オブジェクト7の状態、並びに、アバター5の状態に基づいて、サーバ3の出力情報決定部35の画像決定部35a及び音声決定部35bが、ユーザUに認識させる画像及び音声を決定する(図5/STEP205)。 Similarly, when the operation of the first avatar 5a is not an operation for operating the first object 6 (NO in STEP202), the states of the first object 6 and the second object 7 in the virtual space VS, and the avatar. Based on the state of 5, the image determination unit 35a and the sound determination unit 35b of the output information determination unit 35 of the server 3 determine the image and sound to be recognized by the user U (FIG. 5 / STEP205).

次に、ユーザUの装着しているHMD4が、そのモニタ40に決定された画像を表示させるとともに、そのスピーカ41に決定された音声を発生させて(図5/STEP206)、今回の処理を終了する。 Next, the HMD4 worn by the user U displays the determined image on the monitor 40, generates the determined sound on the speaker 41 (FIG. 5 / STEP206), and ends the current process. do.

VRシステムSは、ユーザUによる終了の指示が認識されるまで、所定の制御周期で、上記の処理を繰り返し実行する。 The VR system S repeatedly executes the above processing in a predetermined control cycle until the end instruction by the user U is recognized.

以上説明したように、VRシステムSでは、第1オブジェクト6は、第2オブジェクト7に対応した形状を有している。すなわち、それらのオブジェクトは、1つの対象物(本実施形態では、第2現実空間RS2に存在している組み立て式の車の模型であるアイテムI)をモデルとして生成されている。また、VRシステムSでは、第1オブジェクト6の形状が変更された際に、第2オブジェクト7の形状を、その第1オブジェクト6の形状の変更に応じて(同期して)変更する。 As described above, in the VR system S, the first object 6 has a shape corresponding to the second object 7. That is, those objects are generated by using one object (in this embodiment, item I, which is a model of an assembled car existing in the second real space RS2) as a model. Further, in the VR system S, when the shape of the first object 6 is changed, the shape of the second object 7 is changed (synchronically) according to the change in the shape of the first object 6.

そのため、VRシステムSは、例えば、教師役の第1ユーザU1が自らの手元にある第1オブジェクト6を操作するとともに、生徒役の第2ユーザU2にその第2ユーザU2の手元にある第2オブジェクト7を観察させることによって、教師役の第1ユーザU1が生徒役の第2ユーザU2に、第2オブジェクト7を介して、第1オブジェクト6及び第2オブジェクト7のモデルとなっている対象物(本実施形態では車の模型)の組み立て方法を教えるといった使い方が可能になっている。 Therefore, in the VR system S, for example, the first user U1 who plays the role of a teacher operates the first object 6 which is in his / her own hand, and the second user U2 who plays the role of a student operates the second object U2 which is in the hand of the second user U2. By observing the object 7, the first user U1 acting as a teacher causes the second user U2 acting as a student to act as a model for the first object 6 and the second object 7 via the second object 7. It is possible to use it by teaching how to assemble (a model of a car in this embodiment).

さらに、このVRシステムSは、第1オブジェクト6の形状だけでなく座標、姿勢及び方向のいずれか1つが変更された際に、第2オブジェクト7の座標、姿勢及び方向を固定したまま、その第2オブジェクト7の形状を、第1オブジェクトの形状の変更に応じて変更するように構成されている。 Further, this VR system S keeps the coordinates, posture and direction of the second object 7 fixed when any one of the coordinates, the posture and the direction is changed as well as the shape of the first object 6. 2 The shape of the object 7 is configured to be changed according to the change in the shape of the first object.

これにより、第2ユーザU2が観察する第2オブジェクト7の形状は、第1ユーザU1の第1オブジェクト6に対する操作の結果に応じて変化するが、座標、姿勢及び方向は、変化しない。すなわち、観察に関係する状態は、ある程度固定されたままとなっている。 As a result, the shape of the second object 7 observed by the second user U2 changes according to the result of the operation of the first user U1 on the first object 6, but the coordinates, posture, and direction do not change. That is, the state related to observation remains fixed to some extent.

そのため、第1ユーザU1は、自らが観察する第1オブジェクト6を、自由に動かしながら観察することができる一方で、第2ユーザU2も、自らが観察する第2オブジェクト7を、ある程度安定した状態で観察することができる。 Therefore, the first user U1 can observe the first object 6 that he / she observes while freely moving, while the second user U2 also observes the second object 7 that he / she observes in a stable state to some extent. Can be observed at.

したがって、VRシステムSによれば、仮想空間VSで、第2現実空間RS2のアイテムIという1つの対象物をモデルとする第1オブジェクト6及び第2オブジェクト7の各々を、対応する第1ユーザU1又は第2ユーザU2が自由に意図したような状態で、又は、ある程度安定した状態で観察することができる。ひいては、第1ユーザU1及び第2ユーザU2の各々が、自らに対応する第1オブジェクト6又は第2オブジェクト7を、観察しやすい状態を実現することができる。 Therefore, according to the VR system S, in the virtual space VS, each of the first object 6 and the second object 7 modeled on the item I of the second real space RS2 is the corresponding first user U1. Alternatively, it can be observed in a state that the second user U2 freely intended, or in a state that is stable to some extent. As a result, each of the first user U1 and the second user U2 can realize a state in which the first object 6 or the second object 7 corresponding to the first user U1 and the second user U2 can be easily observed.

なお、本発明の仮想空間体感システムは、このような構成に限定されるものではなく、第1オブジェクトの形状以外を含む状態が変更された際に、第2オブジェクトの座標、姿勢及び方向の少なくとも1つを固定したまま、第2オブジェクトの固定された状態以外の状態を、第1オブジェクトの状態の変更に応じて変更するように構成されていればよい。 The virtual space experience system of the present invention is not limited to such a configuration, and at least the coordinates, posture, and direction of the second object are changed when the state including the shape other than the shape of the first object is changed. It suffices that the state other than the fixed state of the second object may be changed according to the change of the state of the first object while keeping one fixed.

そのため、必ずしも、本実施形態のように、第2オブジェクトの座標、姿勢及び方向の全てを第1オブジェクトの状態の変更に関わらず固定された状態とする必要はなく、座標、姿勢及び方向のいずれか1つ又は2つについては、第1オブジェクトの対応する状態に応じて変更するように構成してもよい。このとき、対応して変更される状態は、観察対象となるオブジェクトの形状、種類、オブジェクトの観察目的等に応じて適宜設定すればよい。 Therefore, as in the present embodiment, it is not always necessary to keep all the coordinates, posture, and direction of the second object in a fixed state regardless of the change in the state of the first object, and any of the coordinates, posture, and direction. One or two may be configured to be changed according to the corresponding state of the first object. At this time, the correspondingly changed state may be appropriately set according to the shape and type of the object to be observed, the purpose of observing the object, and the like.

[第2オブジェクトが操作された際における処理]
次に、図2、図8及び図9を参照して、VRシステムSの使用が開始された後、第2ユーザU2が第2アバター5bを介して第2オブジェクト7を操作した際に、VRシステムSの各処理部が実行する処理について説明する。
[Processing when the second object is operated]
Next, referring to FIGS. 2, 8 and 9, when the second user U2 operates the second object 7 via the second avatar 5b after the use of the VR system S is started, the VR The processing executed by each processing unit of the system S will be described.

この処理においては、まず、ユーザ状態認識部31が、第2ユーザU2の状態が変化したか否かを判定する(図8/STEP300)。 In this process, first, the user state recognition unit 31 determines whether or not the state of the second user U2 has changed (FIG. 8 / STEP300).

第2ユーザU2の状態が変化していない場合(STEP300でNOの場合)、STEP300に戻り、所定の制御周期でSTEP300の判定を再度実行する。 If the state of the second user U2 has not changed (NO in STEP300), the process returns to STEP300, and the determination of STEP300 is executed again in a predetermined control cycle.

一方、第2ユーザU2の状態が変化した場合(STEP300でYESの場合)、アバター制御部32は、第2ユーザU2の状態の変化に基づいて、第2アバター5bの状態を変化させる(図8/STEP301)。 On the other hand, when the state of the second user U2 changes (YES in STEP 300), the avatar control unit 32 changes the state of the second avatar 5b based on the change in the state of the second user U2 (FIG. 8). / STEP301).

次に、オブジェクト制御部34が、アバター制御部32によって実行される第2アバター5bの状態の変化(すなわち、動作)が、第2オブジェクト7を操作するような動作であるか否かを判定する(図8/STEP302)。 Next, the object control unit 34 determines whether or not the change in the state (that is, the operation) of the second avatar 5b executed by the avatar control unit 32 is an operation such as operating the second object 7. (Fig. 8 / STEP302).

具体的には、オブジェクト制御部34は、仮想空間VSにおける第2オブジェクト7に対する第2アバター5bの座標、姿勢及び方向の変化が所定の座標、姿勢及び方向の変化に該当するか否かに基づいて、第2アバター5bの動作が第2オブジェクト7を操作するような動作であるか否かを判定する。 Specifically, the object control unit 34 is based on whether or not the change in the coordinates, posture, and direction of the second avatar 5b with respect to the second object 7 in the virtual space VS corresponds to the change in the predetermined coordinates, posture, and direction. Therefore, it is determined whether or not the operation of the second avatar 5b is an operation such as operating the second object 7.

本実施形態では、例えば、図9に示すように、オブジェクト制御部34は、第2アバター5bの手が第2オブジェクト7に含まれるパーツのいずれかを掴んだり移動させたりするような動作であるか否かを、判定する。 In the present embodiment, for example, as shown in FIG. 9, the object control unit 34 is an operation in which the hand of the second avatar 5b grabs or moves any of the parts included in the second object 7. Whether or not it is determined.

第2アバター5bの動作が第2オブジェクト7を操作するような動作である場合(STEP302でYESの場合)、オブジェクト制御部34の第2オブジェクト制御部34bが、第2アバター5bによる操作に基づいて、第2オブジェクト7の座標、姿勢及び方向を変化させる(図8/STEP303)。 When the operation of the second avatar 5b is an operation such as operating the second object 7 (YES in STEP 302), the second object control unit 34b of the object control unit 34 is based on the operation by the second avatar 5b. , The coordinates, posture and direction of the second object 7 are changed (FIG. 8 / STEP303).

ここで、第2オブジェクト7は、第2ユーザU2が観察するためのオブジェクトである。そのため、VRシステムSでは、第2ユーザU2は、自らに対応する第2アバター5bを介して、第2オブジェクト7の形状を変更することはできないようになっている。 Here, the second object 7 is an object for the second user U2 to observe. Therefore, in the VR system S, the second user U2 cannot change the shape of the second object 7 via the second avatar 5b corresponding to the second user U2.

また、第1ユーザU1が第1オブジェクト6を操作した場合と異なり、第1オブジェクト6の状態は、第2オブジェクト7の状態の変化に同期して変化しない。 Further, unlike the case where the first user U1 operates the first object 6, the state of the first object 6 does not change in synchronization with the change of the state of the second object 7.

具体的には、例えば、第2アバター5bが、図9に示した矢印の方向に、第2オブジェクト7の姿勢(ヨー軸に対する傾き)及び方向(ヨー軸を中心とする位相)を変化させたとする。 Specifically, for example, the second avatar 5b changes the posture (tilt with respect to the yaw axis) and the direction (phase around the yaw axis) of the second object 7 in the direction of the arrow shown in FIG. do.

このとき、第1オブジェクト6の姿勢及び方向は、第2オブジェクト7の姿勢及び方向の変化に同期せず変化しない。すなわち、第1オブジェクト6の姿勢及び方向は、第2オブジェクト7の状態の変化前と変化後とにおいて、変化しない。 At this time, the posture and direction of the first object 6 do not change in synchronization with the change of the posture and direction of the second object 7. That is, the posture and direction of the first object 6 do not change before and after the state of the second object 7.

次に、サーバ3の出力情報決定部35の画像決定部35a及び音声決定部35bが、仮想空間VSにおける第1オブジェクト6及び第2オブジェクト7の状態、並びに、アバター5の状態に基づいて、ユーザUに認識させる画像及び音声を決定する(図8/STEP304)。 Next, the image determination unit 35a and the voice determination unit 35b of the output information determination unit 35 of the server 3 are based on the states of the first object 6 and the second object 7 in the virtual space VS and the state of the avatar 5. The image and sound to be recognized by U are determined (FIG. 8 / STEP304).

同様に、第2アバター5bの動作が第2オブジェクト7を操作するような動作でない場合(STEP302でNOの場合)も、サーバ3の出力情報決定部35の画像決定部35a及び音声決定部35bが、仮想空間VSにおける第1オブジェクト6及び第2オブジェクト7の状態、並びに、アバター5の状態に基づいて、ユーザUに認識させる画像及び音声を決定する(図8/STEP304)。 Similarly, when the operation of the second avatar 5b is not the operation of operating the second object 7 (NO in STEP 302), the image determination unit 35a and the voice determination unit 35b of the output information determination unit 35 of the server 3 , The image and sound to be recognized by the user U are determined based on the states of the first object 6 and the second object 7 in the virtual space VS and the states of the avatar 5 (FIG. 8 / STEP304).

次に、ユーザUの装着しているHMD4が、そのモニタ40に決定された画像を表示させるとともに、そのスピーカ41に決定された音声を発生させて(図8/STEP305)、今回の処理を終了する。 Next, the HMD4 worn by the user U displays the determined image on the monitor 40, generates the determined sound on the speaker 41 (FIG. 8 / STEP305), and ends the current process. do.

VRシステムSは、ユーザUによる終了の指示が認識されるまで、所定の制御周期で、上記の処理を繰り返し実行する。 The VR system S repeatedly executes the above processing in a predetermined control cycle until the end instruction by the user U is recognized.

以上説明したように、VRシステムSでは、第1オブジェクト6の座標、姿勢及び方向と独立して、第2オブジェクト7の座標、姿勢及び方向を変更することができるようになっている。これにより、第2ユーザU2は、自らに対応する第2オブジェクト7を観察しにくい場合には、第2オブジェクト7の座標、姿勢及び方向を、第1ユーザU1に対応する第1オブジェクト6の状態に関わらず、見やすいように変更することができる。 As described above, in the VR system S, the coordinates, posture and direction of the second object 7 can be changed independently of the coordinates, posture and direction of the first object 6. As a result, when it is difficult for the second user U2 to observe the second object 7 corresponding to itself, the coordinates, posture, and direction of the second object 7 are set to the state of the first object 6 corresponding to the first user U1. Regardless, you can change it to make it easier to see.

なお、本発明の仮想空間体感システムは、このような構成に限定されるものではなく、第1オブジェクトの座標、姿勢及び方向の少なくとも1つと独立して、第2オブジェクトの対応する座標、姿勢及び方向の少なくとも1つを変更するように構成されていればよい。 The virtual space experience system of the present invention is not limited to such a configuration, and is independent of at least one of the coordinates, posture, and direction of the first object, and the corresponding coordinates, posture, and the second object. It may be configured to change at least one of the directions.

そのため、必ずしも、本実施形態のように、第2オブジェクトの座標、姿勢及び方向の全てを第1オブジェクトの座標、姿勢及び方向と独立して変更可能にする必要はなく、第2オブジェクトの状態のうちいずれか1つ又は2つについては、第1オブジェクトの状態が、第2オブジェクトの状態の変更に応じて変更されるように構成してもよい。 Therefore, unlike the present embodiment, it is not always necessary to make all the coordinates, postures, and directions of the second object change independently of the coordinates, postures, and directions of the first object, and the state of the second object does not necessarily have to be changed. For any one or two of them, the state of the first object may be configured to be changed according to the change of the state of the second object.

そのように構成すると、例えば、本実施形態のように第1ユーザを教師役、第2ユーザを生徒役とした場合に、第1ユーザが、第2オブジェクトの状態の変化に応じて状態の変化した第1オブジェクトを観察することによって、第2ユーザの理解の度合い等を推定するといった使い方もできるようになる。 With such a configuration, for example, when the first user plays the role of a teacher and the second user plays the role of a student as in the present embodiment, the first user changes the state according to the change in the state of the second object. By observing the first object, the degree of understanding of the second user can be estimated.

[第3オブジェクトが操作された際における処理]
次に、図2、図10及び図11を参照して、VRシステムSの使用が開始された後、第2ユーザU2が第2アバター5bを介して第3オブジェクト8を操作した際に、VRシステムSの各処理部が実行する処理について説明する。
[Processing when the third object is operated]
Next, referring to FIGS. 2, 10 and 11, when the second user U2 operates the third object 8 via the second avatar 5b after the use of the VR system S is started, the VR The processing executed by each processing unit of the system S will be described.

この処理においては、まず、ユーザ状態認識部31が、第2ユーザU2の状態が変化したか否かを判定する(図10/STEP400)。 In this process, first, the user state recognition unit 31 determines whether or not the state of the second user U2 has changed (FIG. 10 / STEP400).

第2ユーザU2の状態が変化していない場合(STEP400でNOの場合)、STEP400に戻り、所定の制御周期でSTEP400の判定を再度実行する。 If the state of the second user U2 has not changed (NO in STEP400), the process returns to STEP400, and the determination of STEP400 is executed again in a predetermined control cycle.

一方、第2ユーザU2の状態が変化した場合(STEP400でYESの場合)、アバター制御部32は、第2ユーザU2の状態の変化に基づいて、第2アバター5bの状態を変化させる(図10/STEP401)。 On the other hand, when the state of the second user U2 changes (YES in STEP 400), the avatar control unit 32 changes the state of the second avatar 5b based on the change in the state of the second user U2 (FIG. 10). / STEP401).

次に、オブジェクト制御部34が、アバター制御部32によって実行される第2アバター5bの状態の変化(すなわち、動作)が、第3オブジェクト8を操作するような動作であるか否かを判定する(図10/STEP402)。 Next, the object control unit 34 determines whether or not the change in the state (that is, the operation) of the second avatar 5b executed by the avatar control unit 32 is an operation such as operating the third object 8. (Fig. 10 / STEP402).

具体的には、オブジェクト制御部34は、仮想空間VSにおける第3オブジェクト8に対する第2アバター5bの座標、姿勢及び方向の変化が所定の座標、姿勢及び方向の変化に該当するか否かに基づいて、第2アバター5bの動作が第3オブジェクト8を操作するような動作であるか否かを判定する。 Specifically, the object control unit 34 is based on whether or not the change in the coordinates, posture, and direction of the second avatar 5b with respect to the third object 8 in the virtual space VS corresponds to the change in the predetermined coordinates, posture, and direction. Then, it is determined whether or not the operation of the second avatar 5b is an operation such as operating the third object 8.

本実施形態では、例えば、図11に示すように、オブジェクト制御部34は、第2アバター5bの手が第3オブジェクト8に含まれるパーツのいずれかを掴んだり移動させたりするような動作であるか否かを、判定する。 In the present embodiment, for example, as shown in FIG. 11, the object control unit 34 is an operation in which the hand of the second avatar 5b grabs or moves any of the parts included in the third object 8. Whether or not it is determined.

第2アバター5bの動作が第3オブジェクト8を操作するような動作である場合(STEP402でYESの場合)、オブジェクト制御部34の第3オブジェクト制御部34cが、第2アバター5bによる操作に基づいて、第3オブジェクト8の形状、座標、姿勢及び方向を変化させる(図10/STEP403)。 When the operation of the second avatar 5b is an operation such as operating the third object 8 (YES in STEP 402), the third object control unit 34c of the object control unit 34 is based on the operation by the second avatar 5b. , The shape, coordinates, posture and direction of the third object 8 are changed (FIG. 10 / STEP403).

ここで、第3オブジェクト8は、第2ユーザU2が操作するためのオブジェクトであり、その操作の結果に応じた状態の変化は、第1オブジェクト6及び第2オブジェクト7とは独立したものとなっている。そのため、図11に示すように、第3オブジェクト8の状態が変化しても、第1オブジェクト6又は第2オブジェクト7の状態が、それに同期して変化することはない。 Here, the third object 8 is an object for the second user U2 to operate, and the change in the state according to the result of the operation is independent of the first object 6 and the second object 7. ing. Therefore, as shown in FIG. 11, even if the state of the third object 8 changes, the state of the first object 6 or the second object 7 does not change in synchronization with it.

次に、サーバ3の出力情報決定部35の画像決定部35a及び音声決定部35bが、仮想空間VSにおける第3オブジェクト8の状態及びアバター5の状態に基づいて、ユーザUに認識させる画像及び音声を決定する(図10/STEP404)。 Next, the image determination unit 35a and the voice determination unit 35b of the output information determination unit 35 of the server 3 make the user U recognize the image and sound based on the state of the third object 8 and the state of the avatar 5 in the virtual space VS. (Fig. 10 / STEP404).

同様に、第2アバター5bの動作が第3オブジェクト8を操作するような動作でない場合(STEP402でNOの場合)も、サーバ3の出力情報決定部35の画像決定部35a及び音声決定部35bが、仮想空間VSにおける第3オブジェクト8の状態及びアバター5の状態に基づいて、ユーザUに認識させる画像及び音声を決定する(図10/STEP404)。 Similarly, when the operation of the second avatar 5b is not the operation of operating the third object 8 (NO in STEP402), the image determination unit 35a and the voice determination unit 35b of the output information determination unit 35 of the server 3 , The image and sound to be recognized by the user U are determined based on the state of the third object 8 and the state of the avatar 5 in the virtual space VS (FIG. 10 / STEP404).

次に、ユーザUの装着しているHMD4が、そのモニタ40に決定された画像を表示させるとともに、そのスピーカ41に決定された音声を発生させて(図10/STEP405)、今回の処理を終了する。 Next, the HMD4 worn by the user U displays the determined image on the monitor 40, generates the determined sound on the speaker 41 (FIG. 10 / STEP405), and ends the current process. do.

VRシステムSは、ユーザUによる終了の指示が認識されるまで、所定の制御周期で、上記の処理を繰り返し実行する。 The VR system S repeatedly executes the above processing in a predetermined control cycle until the end instruction by the user U is recognized.

以上説明したように、第3オブジェクト8は、仮想空間VSに生成されるものであるが、第2現実空間RS2に実在しているアイテムIに重複するように生成されている。また、第3オブジェクト8の状態の変化もアイテムIに対応している。すなわち、第3オブジェクト8の状態の変化は、アイテムIの状態の変化に対応している。 As described above, the third object 8 is generated in the virtual space VS, but is generated so as to overlap the item I that actually exists in the second real space RS2. In addition, the change in the state of the third object 8 also corresponds to the item I. That is, the change in the state of the third object 8 corresponds to the change in the state of the item I.

そのため、例えば、第2ユーザU2が、第2オブジェクト7を介して組み立て方法を観察した後、その方法に従って第3オブジェクト8を操作することによって、VRシステムSを使用開始前には組み立てられていなかったアイテムIが、使用終了後には組み立てられた状態になる。 Therefore, for example, the second user U2 observes the assembling method through the second object 7, and then operates the third object 8 according to the method, so that the VR system S is not assembled before the start of use. Item I will be in the assembled state after use.

すなわち、VRシステムSでは、仮想空間VSで第2ユーザU2が第2アバター5bを介して第3オブジェクト8に行った動作の結果が、第2現実空間RS2に対応するアイテムIに反映されるようになる。これにより、仮想空間VSにおける第2アバター5bの動作の結果を、第2現実空間RS2のアイテムIに反映させたかのように、第2ユーザU2に感じさせることができる。 That is, in the VR system S, the result of the operation performed by the second user U2 on the third object 8 via the second avatar 5b in the virtual space VS is reflected in the item I corresponding to the second real space RS2. become. As a result, the second user U2 can feel as if the result of the operation of the second avatar 5b in the virtual space VS is reflected in the item I of the second real space RS2.

また、このように構成すると、第2ユーザU2は、第3オブジェクト8に触れたときに、第2現実空間RS2で第2ユーザU2がアイテムIに触れることになる。これにより、第2ユーザU2に第3オブジェクト8を触っているという感覚を与えることができる。ひいては、第2ユーザU2の仮想空間VSへの没入感を高めることができる。 Further, in this configuration, when the second user U2 touches the third object 8, the second user U2 touches the item I in the second real space RS2. As a result, the second user U2 can be given the feeling of touching the third object 8. As a result, the immersive feeling of the second user U2 in the virtual space VS can be enhanced.

また、第1ユーザU1と第2ユーザU2とが同一の現実空間に存在している場合、又は、第3オブジェクト8を第1現実空間RS1に存在しているアイテムに対応させて生成した場合には、第1ユーザU1も、第3オブジェクト8に触れることができる。 Further, when the first user U1 and the second user U2 exist in the same real space, or when the third object 8 is generated corresponding to the item existing in the first real space RS1. Can also touch the third object 8 by the first user U1.

そのような場合には、第1ユーザU1に対しても、仮想空間VSにおける第1アバター5aの動作の結果を、現実空間のアイテムIに反映させたかのように感じさせることができる。また、第1ユーザU1に第3オブジェクト8を触っているという感覚を与えることができる。ひいては、第1ユーザU1の仮想空間VSへの没入感を高めることができる。 In such a case, the first user U1 can feel as if the result of the operation of the first avatar 5a in the virtual space VS is reflected in the item I in the real space. In addition, the first user U1 can be given the feeling of touching the third object 8. As a result, the immersive feeling of the first user U1 in the virtual space VS can be enhanced.

なお、本実施形態では、前述のように、第1オブジェクト6及び第2オブジェクト7のいずれかの状態が変化しても、第3オブジェクト8の状態が、それに同期して変化することはない。しかし、第3オブジェクト8の状態の変更に応じて(同期して)、第1オブジェクト6の状態も変更するよう構成した場合には、第2ユーザU2の第3オブジェクト8に対する操作の様子を、第1ユーザU1が自らに対応する第1オブジェクト6を介して把握するといった使い方ができるようになる。 In the present embodiment, as described above, even if the state of either the first object 6 or the second object 7 changes, the state of the third object 8 does not change in synchronization with the change. However, when the state of the first object 6 is also changed in response to the change of the state of the third object 8 (synchronically), the operation of the second user U2 on the third object 8 is displayed. The first user U1 can use the object such as grasping it through the first object 6 corresponding to the first user U1.

[変形例]
次に、図12を参照して、VRシステムSの変形例について説明する。本変形例では、第2オブジェクトの色、及び、第3オブジェクト8の座標のみが、上記実施形態の構成とは異なる。そのため、以下の説明においては、その相違する構成についてのみ詳細に説明する。なお、上記実施形態における構成と同一の構成又は対応する構成については、同一の符号を付すとともに、詳細な説明は省略する。
[Modification example]
Next, a modified example of the VR system S will be described with reference to FIG. In this modification, only the color of the second object and the coordinates of the third object 8 are different from the configuration of the above embodiment. Therefore, in the following description, only the different configurations will be described in detail. The same configurations as those in the above-described embodiment or the corresponding configurations are designated by the same reference numerals, and detailed description thereof will be omitted.

図12に示すように、第2オブジェクト7及び第3オブジェクト8は、組み立て式の車の模型であるアイテムIをモデルとして生成される。 As shown in FIG. 12, the second object 7 and the third object 8 are generated by using the item I, which is a model of a prefabricated car, as a model.

第2オブジェクト7を構成する各パーツのうち本体部分である第1パーツ70の座標、姿勢及び方向は、第3オブジェクト8を構成する各パーツのうちの本体部分である第1パーツ80の座標、姿勢及び方向に一致するように設定されている。そのため、第2オブジェクト7の第1パーツ70と、第3オブジェクト8の第1パーツ80とは、仮想空間VSで重畳して存在することになる。 The coordinates, posture, and direction of the first part 70, which is the main body part of each part constituting the second object 7, are the coordinates of the first part 80, which is the main body part of each part constituting the third object 8. It is set to match the posture and direction. Therefore, the first part 70 of the second object 7 and the first part 80 of the third object 8 are superimposed in the virtual space VS and exist.

そして、第2オブジェクト7の形状は、第1ユーザU1に対応する第1オブジェクト6の形状の変化(すなわち、第1ユーザU1の操作)に応じて変化する。一方、第3オブジェクト8の形状は、第2ユーザU2の操作に応じて変化する。 Then, the shape of the second object 7 changes according to the change in the shape of the first object 6 corresponding to the first user U1 (that is, the operation of the first user U1). On the other hand, the shape of the third object 8 changes according to the operation of the second user U2.

そのため、第1オブジェクト6の形状が変化すると、重畳している第2オブジェクト7と第3オブジェクト8のうち第2オブジェクト7の形状のみが、その変化に対応して変化することになる。 Therefore, when the shape of the first object 6 changes, only the shape of the second object 7 out of the superimposed second object 7 and the third object 8 changes in response to the change.

具体的には、例えば、第1ユーザU1によって、屋根部分である第2パーツ61が、第1オブジェクト6の本体部分である第1パーツ60に対して取り付けられたとする。この場合、第2オブジェクト7の屋根部分である第2パーツ71も、本体部分である第1パーツ70に対して、自動的に取り付けられる。 Specifically, for example, it is assumed that the second part 61, which is a roof portion, is attached to the first part 60, which is the main body portion of the first object 6, by the first user U1. In this case, the second part 71, which is the roof portion of the second object 7, is also automatically attached to the first part 70, which is the main body portion.

ここで、第2オブジェクト7は、第3オブジェクト8とは異なり、半透明のオブジェクトとして生成されている。そのため、第1オブジェクト6の形状が変化した際には、その変化した部分のみ(すなわち、第1オブジェクト6の形状と第3オブジェクト8の形状との相違部分のみ)が、第2ユーザU2に、半透明の部分として示されることになる。 Here, unlike the third object 8, the second object 7 is generated as a semi-transparent object. Therefore, when the shape of the first object 6 changes, only the changed part (that is, only the difference between the shape of the first object 6 and the shape of the third object 8) is sent to the second user U2. It will be shown as a translucent part.

その結果、第2ユーザU2は、第1オブジェクト6の形状と第3オブジェクト8の形状との相違部分(ひいては、第1ユーザU1による第1オブジェクト6に対する操作)を、直観的に把握することができる。具体的には、第2ユーザU2は、第1ユーザU1の組み立て手順を、その相違部分を観察することによって、容易に把握することができる。 As a result, the second user U2 can intuitively grasp the difference between the shape of the first object 6 and the shape of the third object 8 (and by extension, the operation of the first user U1 on the first object 6). can. Specifically, the second user U2 can easily grasp the assembly procedure of the first user U1 by observing the difference portion.

なお、第2オブジェクト7の色は、必ずしも半透明である必要はなく、第3オブジェクト8の色と異なる色であってもよい。 The color of the second object 7 does not necessarily have to be translucent, and may be a color different from the color of the third object 8.

[その他の実施形態]
以上、図示の実施形態について説明したが、本発明はこのような形態に限定されるものではない。
[Other Embodiments]
Although the illustrated embodiment has been described above, the present invention is not limited to such an embodiment.

例えば、上記実施形態では、図3に示すように、VRシステムSは、第1ユーザU1が観察する第1オブジェクト6、及び、第2ユーザU2が観察する第2オブジェクト7だけでなく、第2ユーザU2が操作し、アイテムIに対応する第3オブジェクト8、及び、アイテムIが載置されるテーブルTに対応する第4オブジェクト9を、仮想空間VSに生成している。 For example, in the above embodiment, as shown in FIG. 3, the VR system S is not only the first object 6 observed by the first user U1 and the second object 7 observed by the second user U2, but also the second object. The user U2 operates to generate a third object 8 corresponding to the item I and a fourth object 9 corresponding to the table T on which the item I is placed in the virtual space VS.

これは、教師役である第1ユーザU1によって第1オブジェクト6(ひいては、第2オブジェクト7)を介して示された方法に応じて、生徒役である第2ユーザU2が、第3オブジェクト8(ひいては、現実に存在するアイテムI)を、操作することができるようにするためである。 This is because the second user U2, who is the student role, is the third object 8 (and thus, according to the method shown through the first object 6 (and thus the second object 7) by the first user U1 who is the teacher role. As a result, the item I) that actually exists can be operated.

しかし、本発明の仮想空間体感システムは、そのような構成に限定されるものではなく、第1ユーザが観察する第1オブジェクト及び第2ユーザが観察する第2オブジェクトを、仮想空間に生成するものであればよい。 However, the virtual space experience system of the present invention is not limited to such a configuration, and creates a first object observed by the first user and a second object observed by the second user in the virtual space. Anything is fine.

そのため、実在のアイテムを操作する必要がない場合には、それに対応する第3オブジェクト、及び、第3オブジェクトを載置するための第4オブジェクトは、生成しなくてもよい。また、その第3オブジェクト及び第4オブジェクトを認識する必要もなくなるので、アイテム認識部、並びに、オブジェクト制御部の第3オブジェクト制御部及び第4オブジェクト制御部とともに、それらが実行する処理を省略してもよい。 Therefore, when it is not necessary to operate an existing item, it is not necessary to generate the corresponding third object and the fourth object on which the third object is placed. Further, since it is not necessary to recognize the third object and the fourth object, the processing executed by the item recognition unit and the third object control unit and the fourth object control unit of the object control unit is omitted. May be good.

1…標識、2…カメラ、2a…第1カメラ、2b…第2カメラ、3…サーバ、4…HMD、5…アバター、5a…第1アバター、5b…第2アバター、6…第1オブジェクト、7…第2オブジェクト、8…第3オブジェクト、9…第4オブジェクト、30…仮想空間生成部、31…ユーザ状態認識部、31a…ユーザ座標認識部、31b…ユーザ姿勢認識部、31c…ユーザ方向認識部、32…アバター制御部、33…アイテム状態認識部、33a…アイテム形状認識部、33b…アイテム座標認識部、33c…アイテム姿勢認識部、33d…アイテム方向認識部、34…オブジェクト制御部、34a…第1オブジェクト制御部、34b…第2オブジェクト制御部、34c…第3オブジェクト制御部、34d…第4オブジェクト制御部、35…出力情報決定部、35a…画像決定部、35b…音声決定部、40…モニタ、41…スピーカ、60,70,80…第1パーツ、61,71,81…第2パーツ、62,72,82…第3パーツ、63,73,83…第4パーツ、I…アイテム、U…ユーザ、U1…第1ユーザ、U2…第2ユーザ、RS…現実空間、RS1…第1現実空間、RS2…第2現実空間、S…VRシステム(仮想空間体感システム)、T…テーブル、VS…仮想空間。 1 ... sign, 2 ... camera, 2a ... 1st camera, 2b ... 2nd camera, 3 ... server, 4 ... HMD, 5 ... avatar, 5a ... 1st avatar, 5b ... 2nd avatar, 6 ... 1st object, 7 ... 2nd object, 8 ... 3rd object, 9 ... 4th object, 30 ... Virtual space generation unit, 31 ... User state recognition unit, 31a ... User coordinate recognition unit, 31b ... User attitude recognition unit, 31c ... User direction Recognition unit, 32 ... Avatar control unit, 33 ... Item state recognition unit, 33a ... Item shape recognition unit, 33b ... Item coordinate recognition unit, 33c ... Item attitude recognition unit, 33d ... Item direction recognition unit, 34 ... Object control unit, 34a ... 1st object control unit, 34b ... 2nd object control unit, 34c ... 3rd object control unit, 34d ... 4th object control unit, 35 ... output information determination unit, 35a ... image determination unit, 35b ... voice determination unit , 40 ... monitor, 41 ... speaker, 60, 70, 80 ... first part, 61, 71, 81 ... second part, 62, 72, 82 ... third part, 63, 73, 83 ... fourth part, I ... Item, U ... User, U1 ... 1st user, U2 ... 2nd user, RS ... Real space, RS1 ... 1st real space, RS2 ... 2nd real space, S ... VR system (virtual space experience system), T ... table, VS ... virtual space.

Claims (4)

現実空間に存在している第1ユーザ及び第2ユーザに対応して仮想空間に生成された第1アバター及び第2アバターのいずれか一方の動作を介して、前記仮想空間に生成された所定のオブジェクトの座標、姿勢及び方向の少なくとも1つ、並びに、形状を少なくとも含む状態を変更することのできる仮想空間体感システムであって、
前記仮想空間、並びに、該仮想空間に存在する前記第1アバター、前記第2アバター及び前記所定のオブジェクトを生成する仮想空間生成部と、
前記第1ユーザの状態及び前記第2ユーザの状態を認識するユーザ状態認識部と、
前記第1ユーザの状態に応じて、前記第1アバターの状態を制御し、前記第2ユーザの状態に応じて前記第2アバターの状態を制御するアバター制御部と、
前記所定のオブジェクトの状態を制御するオブジェクト制御部と、
前記第1アバターの状態、前記第2アバターの状態及び前記所定のオブジェクトの状態に基づいて、前記第1ユーザ及び前記第2ユーザに認識させる前記仮想空間の画像を決定する画像決定部と、
前記第1ユーザ及び前記第2ユーザに前記仮想空間の画像を認識させる画像表示器とを備え、
前記所定のオブジェクトは、前記第1ユーザが観察する第1オブジェクト、及び、前記第2ユーザが観察する第2オブジェクトを含み、
前記第2オブジェクトは、前記仮想空間で前記第1オブジェクトの座標とは異なる座標に位置し、且つ、前記第1オブジェクトに対応した形状を有し、
前記第1オブジェクトの状態は、前記第1ユーザが前記第1アバターの動作を介して変更可能であり、
前記オブジェクト制御部は、
前記第1オブジェクトの形状が変更された際に、前記第2オブジェクトの形状を、該第1オブジェクトの形状の変更に応じて変更し、
前記第1オブジェクトの形状以外の状態が変更された際に、前記第2オブジェクトの座標、姿勢及び方向の少なくとも1つを固定したまま、該第2オブジェクトの該固定された状態以外の状態を、該第1オブジェクトの状態の変更に応じて変更することを特徴とする仮想空間体感システム。
A predetermined value generated in the virtual space through the operation of either the first avatar or the second avatar generated in the virtual space corresponding to the first user and the second user existing in the real space. A virtual space experience system that can change at least one of the coordinates, orientation, and direction of an object, as well as a state that includes at least a shape.
The virtual space, and a virtual space generation unit that generates the first avatar, the second avatar, and the predetermined object existing in the virtual space.
A user state recognition unit that recognizes the state of the first user and the state of the second user,
An avatar control unit that controls the state of the first avatar according to the state of the first user and controls the state of the second avatar according to the state of the second user.
An object control unit that controls the state of the predetermined object, and
An image determination unit that determines an image of the virtual space to be recognized by the first user and the second user based on the state of the first avatar, the state of the second avatar, and the state of the predetermined object.
The first user and the second user are provided with an image display for recognizing an image of the virtual space.
The predetermined object includes a first object observed by the first user and a second object observed by the second user.
The second object is located in the virtual space at coordinates different from the coordinates of the first object, and has a shape corresponding to the first object.
The state of the first object can be changed by the first user through the operation of the first avatar.
The object control unit
When the shape of the first object is changed, the shape of the second object is changed according to the change in the shape of the first object.
When a state other than the shape of the first object is changed, the state of the second object other than the fixed state is changed while at least one of the coordinates, the posture, and the direction of the second object is fixed. A virtual space experience system characterized in that it changes according to a change in the state of the first object.
請求項1に記載の仮想空間体感システムにおいて、
前記第2オブジェクトの状態は、前記第2ユーザが前記第2アバターの動作を介して変更可能であり、
前記オブジェクト制御部は、前記第1オブジェクトの座標、姿勢及び方向の少なくとも1つと独立して、前記第2オブジェクトの対応する座標、姿勢及び方向の少なくとも1つを変更することを特徴とする仮想空間体感システム。
In the virtual space experience system according to claim 1,
The state of the second object can be changed by the second user through the action of the second avatar.
The object control unit changes at least one of the corresponding coordinates, posture, and direction of the second object independently of at least one of the coordinates, posture, and direction of the first object. Experience system.
請求項1又は請求項2に記載の仮想空間体感システムにおいて、
前記所定のオブジェクトは、前記第2ユーザが操作する第3オブジェクトを含み、
前記第2オブジェクトの色は、半透明又は第3オブジェクトとは異なる色であり、
前記第3オブジェクトは、前記第2オブジェクトに対応した形状を有し、
前記第3オブジェクトの形状は、前記第2ユーザが前記第2アバターの動作を介して変更可能であり、
前記第3オブジェクトの座標、姿勢及び方向は、前記第2オブジェクトの座標、姿勢及び方向と一致していることを特徴とする仮想空間体感システム。
In the virtual space experience system according to claim 1 or 2.
The predetermined object includes a third object operated by the second user.
The color of the second object is translucent or a color different from that of the third object.
The third object has a shape corresponding to the second object and has a shape corresponding to the second object.
The shape of the third object can be changed by the second user through the operation of the second avatar.
A virtual space experience system characterized in that the coordinates, posture, and direction of the third object match the coordinates, posture, and direction of the second object.
請求項1〜請求項3のいずれか1項に記載の仮想空間体感システムにおいて、
前記現実空間に存在しているアイテムの状態を認識するアイテム状態認識部を備え、
前記所定のオブジェクトは、前記第1ユーザ及び前記第2ユーザの少なくともいずれか一方が操作する第3オブジェクトを含み、
前記仮想空間生成部は、前記アイテムに対応させて前記第3オブジェクトを生成することを特徴とする仮想空間体感システム。
In the virtual space experience system according to any one of claims 1 to 3.
It is provided with an item state recognition unit that recognizes the state of an item existing in the real space.
The predetermined object includes a third object operated by at least one of the first user and the second user.
The virtual space generation unit is a virtual space experience system characterized in that the third object is generated in correspondence with the item.
JP2021520445A 2020-11-06 2020-11-06 Virtual space experience system Active JP6933850B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/041524 WO2022097271A1 (en) 2020-11-06 2020-11-06 Virtual space experience system

Publications (2)

Publication Number Publication Date
JP6933850B1 true JP6933850B1 (en) 2021-09-08
JPWO2022097271A1 JPWO2022097271A1 (en) 2022-05-12

Family

ID=77550013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021520445A Active JP6933850B1 (en) 2020-11-06 2020-11-06 Virtual space experience system

Country Status (2)

Country Link
JP (1) JP6933850B1 (en)
WO (1) WO2022097271A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230852A1 (en) * 2018-06-01 2019-12-05 ソニー株式会社 Information processing device, information processing method, and program
JP2020515891A (en) * 2017-03-24 2020-05-28 サージカル シアター エルエルシー System and method for training and collaboration in a virtual environment
JP6739611B1 (en) * 2019-11-28 2020-08-12 株式会社ドワンゴ Class system, viewing terminal, information processing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020515891A (en) * 2017-03-24 2020-05-28 サージカル シアター エルエルシー System and method for training and collaboration in a virtual environment
WO2019230852A1 (en) * 2018-06-01 2019-12-05 ソニー株式会社 Information processing device, information processing method, and program
JP6739611B1 (en) * 2019-11-28 2020-08-12 株式会社ドワンゴ Class system, viewing terminal, information processing method and program

Also Published As

Publication number Publication date
WO2022097271A1 (en) 2022-05-12
JPWO2022097271A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
EP3425481B1 (en) Control device
JP2022549853A (en) Individual visibility in shared space
JP6263252B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
CN107656615B (en) Massively simultaneous remote digital presentation of the world
JP2010253277A (en) Method and system for controlling movements of objects in video game
JP2010257461A (en) Method and system for creating shared game space for networked game
JP2010257081A (en) Image procession method and image processing system
TW202105129A (en) Artificial reality systems with personal assistant element for gating user interface elements
WO2019087564A1 (en) Information processing device, information processing method, and program
US20230135138A1 (en) Vr training system for aircraft, vr training method for aircraft, and vr training program for aircraft
JP2023026312A (en) Composite space bodily sensation system
WO2020201998A1 (en) Transitioning between an augmented reality scene and a virtual reality representation
JP7530754B2 (en) Educational support system, method and program
JP6933850B1 (en) Virtual space experience system
WO2021240601A1 (en) Virtual space body sensation system
JP6554139B2 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
WO2021261593A1 (en) Aircraft vr training system, aircraft vr training method, and aircraft vr training program
JP7547501B2 (en) VR video space generation system
JP2018092635A (en) Information processing method, device, and program for implementing that information processing method on computer
WO2022254585A1 (en) Virtual space experience system
JP7412497B1 (en) information processing system
JP7544071B2 (en) Information processing device, information processing system, and information processing method
JP2018190397A (en) Information processing method, information processing device, program causing computer to execute information processing method
JP7571233B1 (en) Image generating device and computer program
JP2024047006A (en) Information processing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210415

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210415

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210812

R150 Certificate of patent or registration of utility model

Ref document number: 6933850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350