JP7138392B1 - Virtual space sensory system - Google Patents

Virtual space sensory system Download PDF

Info

Publication number
JP7138392B1
JP7138392B1 JP2022529032A JP2022529032A JP7138392B1 JP 7138392 B1 JP7138392 B1 JP 7138392B1 JP 2022529032 A JP2022529032 A JP 2022529032A JP 2022529032 A JP2022529032 A JP 2022529032A JP 7138392 B1 JP7138392 B1 JP 7138392B1
Authority
JP
Japan
Prior art keywords
user
avatar
virtual space
environment
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022529032A
Other languages
Japanese (ja)
Other versions
JPWO2023017584A5 (en
JPWO2023017584A1 (en
Inventor
良哉 尾小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2022084262A priority Critical patent/JP2023026312A/en
Application granted granted Critical
Publication of JP7138392B1 publication Critical patent/JP7138392B1/en
Publication of JPWO2023017584A1 publication Critical patent/JPWO2023017584A1/ja
Publication of JPWO2023017584A5 publication Critical patent/JPWO2023017584A5/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

仮想空間で、異なる環境を体感していた複数のユーザが、同様の環境を互いに体感することができるようになる仮想空間体感システムを提供する。アバター動作制御部32は、トリガーイベント前には、第1特性を第1アバターに付与し、第2特性を第2アバターに付与し、トリガーイベント後には、第1特性を第1アバター及び第2アバターに付与する。アバター環境決定部33は、第1アバターの動作に基づいて、第1アバターの環境を決定し、第2アバターの動作に基づいて、第2アバターの環境を決定する。To provide a virtual space bodily sensation system that allows a plurality of users who have experienced different environments in a virtual space to mutually experience the same environment. The avatar action control unit 32 assigns the first characteristic to the first avatar and the second characteristic to the second avatar before the trigger event, and assigns the first characteristic to the first avatar and the second avatar after the trigger event. Give to avatar. The avatar environment determining unit 33 determines the environment of the first avatar based on the motion of the first avatar, and determines the environment of the second avatar based on the motion of the second avatar.

Description

本発明は、サーバ等に生成された仮想空間にユーザ自身が存在していると認識させるための仮想空間体感システム、及び、現実空間に仮想のオブジェクトを存在させた複合空間を認識させるための複合空間体感システムに関する。 The present invention provides a virtual space sensory system for recognizing that the user exists in a virtual space generated by a server or the like, and a complex space for recognizing a complex space in which virtual objects exist in the real space. It relates to a spatial sensation system.

従来、サーバ等で仮想空間を生成し、ヘッドマウントディスプレイ(以下、「HMD」ということがある。)を介して、その仮想空間の画像をユーザに認識させ、ユーザ自身がその仮想空間に存在していると認識させる仮想空間体感システムがある。 Conventionally, a virtual space is generated by a server or the like, and a user recognizes an image of the virtual space through a head-mounted display (hereinafter sometimes referred to as "HMD"), and the user himself/herself exists in the virtual space. There is a virtual space sensory system that makes you realize that you are there.

この種の仮想空間体感システムは、モーションキャプチャー装置等によってユーザの現実空間における動作(例えば、座標の移動、向きを含む姿勢の変化等)を認識し、その認識した動作に応じて、ユーザに対応するアバターを仮想空間で動作させるものがある(例えば、特許文献1参照)。 This type of virtual space experience system recognizes the user's motion in the real space (for example, movement of coordinates, change of posture including orientation, etc.) by a motion capture device or the like, and responds to the user according to the recognized motion. There is an avatar that operates in a virtual space (see Patent Document 1, for example).

特許文献1に記載の仮想空間体感システムでは、複数のユーザの各々に対応するようにして、同時に同一の仮想空間に複数のアバターを生成している。そして、この仮想空間体感システムでは、各ユーザに認識させる仮想空間の画像は、自らに対応したアバターの座標に基づいて決定される。すなわち、同時に同一の仮想空間を体感している場合であっても、ユーザごとに視認している仮想空間の画像は異なる。ひいては、体感している仮想空間の環境も異なる。 The virtual space bodily sensation system described in Patent Literature 1 simultaneously generates a plurality of avatars in the same virtual space so as to correspond to each of a plurality of users. In this virtual space bodily sensation system, the image of the virtual space recognized by each user is determined based on the coordinates of the avatar corresponding to the user. That is, even when the same virtual space is being experienced at the same time, the image of the virtual space being visually recognized differs for each user. As a result, the environment of the virtual space experienced is also different.

また、仮想空間体感システムとしては、特許文献1に記載の仮想空間体感システムの他に、その仮想空間体感システムを同時に使用している複数のユーザの各々に、異なる仮想空間を体感させるものも提案されている。 As a virtual space experience system, in addition to the virtual space experience system described in Patent Document 1, a system that allows each of a plurality of users simultaneously using the virtual space experience system to experience different virtual spaces is also proposed. It is

例えば、ユーザ同士で通信可能な状態を維持したまま、一方のユーザに対応するアバターを第1の仮想空間(例えば、海の仮想空間)に存在させて、そのユーザに第1の仮想空間を体感させるとともに、他方のユーザに対応するアバターを第2の仮想空間(例えば、山の仮想空間)に存在させて、そのユーザに第2の仮想空間を体感させるものなどが提案されている。 For example, an avatar corresponding to one user is made to exist in a first virtual space (for example, a virtual space of the sea) while maintaining a state in which the users can communicate with each other, and the user experiences the first virtual space. In addition to making the avatar corresponding to the other user exist in a second virtual space (for example, a virtual space of a mountain), the user is allowed to experience the second virtual space.

また、近年、現実空間に仮想のオブジェクトを存在させるとともに、その仮想のオブジェクトに対して現実空間に存在するユーザが影響を与えること(例えば、そのオブジェクトを移動させること等)の可能な複合空間を生成し、その複合空間をユーザに体感させる複合空間体感システムが提案されている。 In recent years, a complex space has been developed in which a virtual object exists in the real space and a user existing in the real space can influence the virtual object (for example, move the object). A complex spatial experience system has been proposed that generates a complex space and allows the user to experience the complex space.

そのような複合空間体感システムを同時に複数のユーザで使用する場合において、複合空間に存在させる仮想のオブジェクトは、必ずしもユーザの全てで共通のものにする必要はなく、各ユーザで異なっていてもよい。すなわち、同一の複合空間体感システムを使用する場合においても、ユーザごとに、存在する仮想のオブジェクトが異なる複合空間を体感できるように構成されていてもよい。 When such a complex spatial sensation system is used by multiple users at the same time, the virtual objects that exist in the complex space do not necessarily have to be common to all users, and may be different for each user. . That is, even when using the same complex space sensation system, each user may be configured to experience a complex space with different existing virtual objects.

特開2010-257461号公報JP 2010-257461 A

ところで、複数のユーザが同時に仮想空間又は複合空間を体感しており、且つ、ユーザごとに体感している仮想空間又は複合空間の環境が異なっている場合、一方のユーザが、他方のユーザが体感している環境を、自らが体感したいと考える場合がある。逆に、一方のユーザが、自らの体感している環境を、他方のユーザにも体感してほしいと考える場合もある。 By the way, when a plurality of users are experiencing a virtual space or a composite space at the same time, and the environment of the virtual space or the composite space experienced by each user is different, one user experiences the experience of the other user. There are times when you want to experience the environment where you are. Conversely, one user may want the other user to experience the environment he or she is experiencing.

本発明は以上の点に鑑みてなされたものであり、仮想空間又は複合空間で、異なる環境を体感していた複数のユーザが、同様の環境を互いに体感することができるようになる仮想空間体感システム及び複合空間体感システムを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above points. An object is to provide a system and a complex spatial sensation system.

第1発明の仮想空間体感システムは、
第1ユーザ及び第2ユーザを含む複数のユーザが存在する現実空間に対応する仮想空間を生成する仮想空間生成部と、
前記第1ユーザに対応する第1アバター、及び、前記第2ユーザに対応する第2アバターを含む複数のアバターを、同一の前記仮想空間に生成するアバター生成部と、
前記現実空間における前記第1ユーザ及び前記第2ユーザの動作を認識するユーザ動作認識部と、
前記第1ユーザの動作に基づいて、前記仮想空間における前記第1アバターの動作を制御するとともに、前記第2ユーザの動作に基づいて、前記仮想空間における前記第2アバターの動作を制御するアバター動作制御部と、
前記仮想空間における前記第1アバター及び前記第2アバターの環境を決定するアバター環境決定部と、
前記1アバターの環境に基づいて、前記1ユーザに認識させる環境を決定するとともに、前記第2アバターの環境に基づいて、前記第2ユーザに認識させる環境を決定するユーザ環境決定部と、
所定のトリガーイベントを認識するトリガーイベント認識部と、
前記第1ユーザ及び前記第2ユーザに、前記仮想空間の環境を認識させる環境出力器とを備えている仮想空間体感システムにおいて、
前記所定のトリガーイベントが認識される以前には、
前記アバター動作制御部が、前記ユーザの動作に対する該ユーザに対応する前記アバターの動作を規定する特性である第1特性、及び、前記第1特性とは異なる特性であり、前記ユーザの動作に対する該ユーザに対応する前記アバターの動作を規定する特性である第2特性の一方の特性を、前記第1アバターに付与したうえで、該第1アバターの動作を制御するとともに、前記第1特性及び第2特性の他方の特性を、前記第2アバターに付与したうえで、該第2アバターの動作を制御し、
前記アバター環境決定部が、前記一方の特性を付与された該第1アバターの動作に基づいて、該第1アバターの環境を決定するとともに、前記他方の特性を付与された該第2アバターの動作に基づいて、該第2アバターの環境を決定し、
前記所定のトリガーイベントが認識された以後には、
前記アバター動作制御部が、前記第1特性及び前記第2特性の一方の特性を、前記第1アバター及び前記第2アバターに付与したうえで、該第1アバターの動作及び該第2アバターの動作を制御し、
前記アバター環境決定部が、前記一方の特性を付与された該第1アバターの動作に基づいて、該第1アバターの環境を決定するとともに、前記一方の特性を付与された該第2アバターの動作に基づいて、該第2アバターの環境を決定することを特徴とする。
The virtual space experience system of the first invention is
a virtual space generation unit that generates a virtual space corresponding to a real space in which a plurality of users including a first user and a second user exist;
an avatar generation unit that generates a plurality of avatars including a first avatar corresponding to the first user and a second avatar corresponding to the second user in the same virtual space;
a user action recognition unit that recognizes actions of the first user and the second user in the physical space;
Avatar action of controlling the action of the first avatar in the virtual space based on the action of the first user, and controlling the action of the second avatar in the virtual space based on the action of the second user. a control unit;
an avatar environment determination unit that determines environments of the first avatar and the second avatar in the virtual space;
a user environment determination unit that determines an environment to be recognized by the one user based on the environment of the one avatar and determines an environment to be recognized by the second user based on the environment of the second avatar;
a trigger event recognition unit that recognizes a predetermined trigger event;
A virtual space experience system comprising an environment output device that allows the first user and the second user to recognize the environment of the virtual space,
Before the predetermined trigger event is recognized,
The avatar action control unit controls a first property that is a property that defines the action of the avatar corresponding to the user in response to the user's action, and a property that is different from the first property and is the property that defines the action of the user's action One characteristic of a second characteristic, which is a characteristic that defines the behavior of the avatar corresponding to the user, is given to the first avatar, and then the behavior of the first avatar is controlled, and the first characteristic and the first characteristic are controlled. Giving the other of the two characteristics to the second avatar, and controlling the behavior of the second avatar,
The avatar environment determining unit determines the environment of the first avatar based on the behavior of the first avatar to which the one property is assigned, and the behavior of the second avatar to which the other property is assigned. determining the environment of the second avatar based on
After the predetermined trigger event is recognized,
The avatar action control unit imparts one of the first property and the second property to the first avatar and the second avatar, and then the action of the first avatar and the action of the second avatar. to control the
The avatar environment determining unit determines the environment of the first avatar based on the behavior of the first avatar to which the one property is assigned, and the behavior of the second avatar to which the one property is assigned. and determining the environment of the second avatar.

ここで、アバターの「環境」とは、仮想空間において、アバターに対して影響を与えるものを指す。例えば、仮想空間に存在しているオブジェクトの状態、仮想空間における物理的な法則(時間の流れる速さ、重力の大きさ等)等である。また、ユーザに「認識させる環境」とは、そのユーザに五感によって認識させる仮想空間の環境を指す。例えば、ユーザの環境とは、ユーザに認識させる仮想空間の画像、音等である。 Here, the avatar's "environment" refers to what affects the avatar in the virtual space. For example, it is the state of an object existing in the virtual space, physical laws in the virtual space (speed of time flow, magnitude of gravity, etc.), and the like. In addition, the “environment to be recognized” by the user refers to the environment of the virtual space that is recognized by the user through the five senses. For example, the user's environment is images, sounds, etc. of the virtual space that the user recognizes.

第1発明の仮想空間体感システムでは、各アバターの動作は、対応するユーザの動作に基づいて制御される。また、各ユーザに認識させる仮想空間の環境は、対応するアバターの仮想空間における環境に基づいて決定される。 In the virtual space experience system of the first invention, the motion of each avatar is controlled based on the corresponding motion of the user. Also, the environment of the virtual space to be recognized by each user is determined based on the environment of the corresponding avatar in the virtual space.

ここで、アバターの特性(例えば、サイズ、機能等)が異なる場合、現実空間で各ユーザが同様の動作を行ったとしても、対応するアバターの動作中又は動作後における環境は、異なることがある。ひいては、各ユーザが体感する環境も、異なることがある。 Here, when avatars have different characteristics (for example, size, function, etc.), even if each user performs the same action in the real space, the environment during or after the action of the corresponding avatar may differ. . As a result, the environment experienced by each user may also be different.

例えば、各アバターのサイズが異なる場合、現実空間で各ユーザが同じ歩数を歩いたとしても、対応するアバターの仮想空間における移動距離(すなわち、動作後において各ユーザが体感する環境)は、異なることになる。 For example, if each avatar has a different size, even if each user walks the same number of steps in the real space, the moving distance of the corresponding avatar in the virtual space (that is, the environment experienced by each user after the action) will be different. become.

そして、各アバターの特性が異なり得る場合(すなわち、各ユーザが体感する環境が異なり得る場合)、例えば、自分以外のユーザのアバターを認識した際等に、その認識をしたユーザが自分以外のユーザの環境を体感したい、又は、その認識をしたユーザが自分以外のユーザに自らの環境を体感させたいという要望が生じることがある。 Then, when the characteristics of each avatar can be different (that is, when the environment experienced by each user can be different), for example, when recognizing an avatar of a user other than oneself, the user who has recognized the avatar is a user other than himself. There may be a desire to experience the environment, or a user who has recognized that desire to allow other users to experience his/her own environment.

そこで、第1発明の仮想空間体感システムでは、所定のトリガーイベントが認識される以前には、第1特性及び第2特性の一方の特性を、第1アバターに付与し、その第1アバターの動作に基づいて、その第1アバターの環境を決定するとともに、第1特性及び第2特性の他方の特性を、第2アバターに付与し、その第2アバターの動作に基づいて、その第2アバターの環境を決定する。 Therefore, in the virtual space bodily sensation system of the first invention, one of the first characteristic and the second characteristic is imparted to the first avatar before the predetermined trigger event is recognized, and the first avatar moves. Based on, the environment of the first avatar is determined, the other of the first property and the second property is given to the second avatar, and based on the behavior of the second avatar, the second avatar Determine your environment.

一方、所定のトリガーイベントが認識された以後には、第1特性及び第2特性の一方の特性を、第1アバターに付与し、その第1アバターの動作に基づいて、その第1アバターの環境を決定するとともに、同じくその一方の特性を、第2アバターに付与し、その第2アバターの動作に基づいて、その第2アバターの環境を決定する。 On the other hand, after the predetermined trigger event is recognized, one of the first characteristic and the second characteristic is given to the first avatar, and the environment of the first avatar is determined based on the action of the first avatar. is determined, one of the characteristics is also given to the second avatar, and the environment of the second avatar is determined based on the behavior of the second avatar.

ここで、第1特性及び第2特性は、ユーザの動作に対する、そのユーザに対応するアバターの動作を規定する特性である。具体的には、仮想空間におけるアバターのサイズ、アバターの機能(例えば、移動可能速度、移動可能範囲等)である。 Here, the first characteristic and the second characteristic are characteristics that define the behavior of the avatar corresponding to the user with respect to the behavior of the user. Specifically, it is the size of the avatar in the virtual space and the functions of the avatar (for example, movable speed, movable range, etc.).

これにより、所定のトリガーイベントが認識される以前には、第1ユーザに対応する第1アバターの特性と第2ユーザに対応する第2アバターの特性とは、異なるものになっている。そのため、ユーザの動作に対応してアバターが動作した際におけるアバターの環境は、従来のように、独立したものになる。ひいては、ユーザが体感する環境も、従来のように、独立したものになる。 Thus, before the predetermined trigger event is recognized, the characteristics of the first avatar corresponding to the first user and the characteristics of the second avatar corresponding to the second user are different. Therefore, when the avatar moves in response to the user's motion, the environment of the avatar becomes independent as in the past. As a result, the environment experienced by the user becomes independent as in the past.

一方、所定のトリガーイベントが認識された以後には、第1ユーザに対応する第1アバターの特性と第2ユーザに対応する第2アバターの特性とは、いずれも同じものになる。そのため、ユーザの動作に対応してアバターが動作した際におけるアバターの環境は、一致したもの又は同様のものになる。ひいては、ユーザが体感する環境も、一致したもの又は同様のものになる。 On the other hand, after the predetermined trigger event is recognized, the characteristics of the first avatar corresponding to the first user and the characteristics of the second avatar corresponding to the second user are both the same. Therefore, when the avatar moves in response to the user's motion, the environment of the avatar matches or is similar. Consequently, the environment experienced by the user will also match or be similar.

したがって、第1発明の仮想空間体感システムによれば、所定のトリガーイベントが認識された以後には、アバターの環境を同期させる処理が実行されて、各ユーザに認識させる仮想空間の環境が同様のものになるので、それまで異なる環境を体感していた第1ユーザ及び第2ユーザが、同様の環境を体感することができるようになる。 Therefore, according to the virtual space bodily sensation system of the first invention, after the predetermined trigger event is recognized, the process of synchronizing the environments of the avatars is executed so that the environments of the virtual space recognized by each user are the same. As a result, the first user and the second user, who have experienced different environments until then, can now experience the same environment.

また、第1発明の仮想空間体感システムにおいては、
前記所定のトリガーイベントは、前記第1アバター及び前記第2アバターの一方のアバターが前記第1アバター及び前記第2アバターの他方のアバターに対して実行する所定の動作であることが好ましい。
Further, in the virtual space bodily sensation system of the first invention,
Preferably, the predetermined trigger event is a predetermined action performed by one of the first avatar and the second avatar on the other of the first avatar and the second avatar.

ここで、「所定の動作」としては、第1アバター及び第2アバターの一方のアバターが他方のアバターを基準として行う何らかの動作であればよい。 Here, the "predetermined action" may be any action performed by one of the first avatar and the second avatar with reference to the other avatar.

例えば、所定の動作とは、一方のアバターが第2アバターに接触するような動作、一方のアバターが他方のアバターを基準とした所定の範囲内に移動するような動作、一方のアバターが複合空間に存在する仮想空間に存在するオブジェクトを操作する際に、その対象として他方のアバターを選択するような動作(例えば、カメラ型オブジェクトで他方のアバターを撮影するような動作等)等である。 For example, the predetermined action is an action in which one avatar touches a second avatar, an action in which one avatar moves within a predetermined range relative to the other avatar, and one avatar moves in a complex space. When operating an object existing in a virtual space existing in a virtual space, the other avatar is selected as the target (for example, the other avatar is photographed with a camera-type object, etc.).

このように、一方のアバターが他方のアバターに対して実行する所定の動作を所定のトリガーイベントとして設定すると、一方のアバターに対応するユーザは、その動作を実行した結果、他方のアバターに対応する第2ユーザの環境を自らも体感することができることを、直感的に理解することができるようになる。 In this way, when a predetermined action performed by one avatar with respect to the other avatar is set as a predetermined trigger event, the user corresponding to one avatar will be triggered by the other avatar as a result of executing the action. It becomes possible to intuitively understand that the second user can also experience the environment of the second user.

また、第2発明の仮想空間体感システムは、
第1ユーザ及び第2ユーザを含む複数のユーザが存在する現実空間に対応する第1仮想空間、及び、前記第1仮想空間とは独立し、前記現実空間に対応する第2仮想空間を含む複数の仮想空間を生成する仮想空間生成部と、
前記第1ユーザに対応する第1アバター、前記第2ユーザに対応する第2アバター、及び、前記第1ユーザ又は前記第2ユーザに対応し、前記第1アバター及び前記第2アバターとは独立したアバターであるゴーストを含む複数のアバターを、前記第1仮想空間又は前記第2仮想空間に生成するアバター生成部と、
前記現実空間における前記第1ユーザ及び前記第2ユーザの動作を認識するユーザ動作認識部と、
前記第1ユーザの動作に基づいて、前記仮想空間における前記第1アバターの制御を決定するとともに、前記第2ユーザの動作に基づいて、前記仮想空間における前記第2アバターの動作を制御するアバター動作制御部と、
前記仮想空間における前記第1アバター及び前記第2アバターの環境を決定するアバター環境決定部と、
前記1アバターの環境に基づいて、前記1ユーザに認識させる前記仮想空間の環境を決定するとともに、前記第2アバターの環境に基づいて、前記第2ユーザに認識させる前記仮想空間の環境を決定するユーザ環境決定部と、
所定のトリガーイベントを認識するトリガーイベント認識部と、
前記第1ユーザ及び前記第2ユーザに、前記仮想空間の環境を認識させる環境出力器とを備えている仮想空間体感システムにおいて、
前記所定のトリガーイベントは、前記第1ユーザ及び前記第2ユーザの一方に対応する前記ゴーストに対し、前記第1アバター及び前記第2アバターのうち前記第1ユーザ及び前記第2ユーザの他方に対応するアバターが実行する所定の動作であり、
前記所定のトリガーイベントが認識される以前には、
前記アバター生成部は、前記第1アバターを前記第1仮想空間及び前記第2仮想空間の一方の仮想空間に生成、前記第2アバターを前記第1仮想空間及び前記第2仮想空間の他方の仮想空間に生成し、前記第1ユーザ及び前記第2ユーザの一方に対応する前記ゴーストを、前記第1仮想空間又は前記第2仮想空間のうち前記第1アバター及び前記第2アバターの他方の存在している仮想空間に生成し、
前記アバター環境決定部が、該一方の仮想空間に基づいて、前記第1アバターの環境を決定するとともに、該他方の仮想空間に基づいて、前記第2アバターの環境を決定し、
前記所定のトリガーイベントが認識された以後には、
前記アバター生成部は、前記第1アバター及び前記第2アバターを前記第1仮想空間及び前記第2仮想空間の一方の仮想空間に生成し、
前記アバター環境決定部が、該一方の仮想空間に基づいて、前記第1アバターの環境を決定するとともに、該一方の仮想空間に基づいて、前記第2アバターの環境を決定することを特徴とする。
In addition, the virtual space experience system of the second invention is
A first virtual space corresponding to a physical space in which a plurality of users including a first user and a second user exist, and a plurality of second virtual spaces independent of the first virtual space and corresponding to the physical space. a virtual space generation unit that generates a virtual space of
A first avatar corresponding to the first user, a second avatar corresponding to the second user , and a first avatar corresponding to the first user or the second user, independent of the first avatar and the second avatar an avatar generation unit that generates a plurality of avatars, including ghosts , which are avatars created in the first virtual space or the second virtual space;
a user action recognition unit that recognizes actions of the first user and the second user in the physical space;
Avatar action for determining control of the first avatar in the virtual space based on the action of the first user and controlling action of the second avatar in the virtual space based on the action of the second user. a control unit;
an avatar environment determination unit that determines environments of the first avatar and the second avatar in the virtual space;
The environment of the virtual space to be recognized by the one user is determined based on the environment of the one avatar, and the environment of the virtual space to be recognized by the second user is determined based on the environment of the second avatar. a user environment determination unit;
a trigger event recognition unit that recognizes a predetermined trigger event;
A virtual space experience system comprising an environment output device that allows the first user and the second user to recognize the environment of the virtual space,
The predetermined trigger event corresponds to the ghost corresponding to one of the first user and the second user, and the other of the first user and the second user among the first avatar and the second avatar. is a predetermined action performed by an avatar that performs
Before the predetermined trigger event is recognized,
The avatar generation unit generates the first avatar in one of the first virtual space and the second virtual space, and generates the second avatar in one of the first virtual space and the second virtual space. The ghost corresponding to one of the first user and the second user is generated in the other virtual space and placed in the other of the first avatar and the second avatar in the first virtual space or the second virtual space. generated in the virtual space where
The avatar environment determination unit determines the environment of the first avatar based on the one virtual space and determines the environment of the second avatar based on the other virtual space;
After the predetermined trigger event is recognized,
The avatar generation unit generates the first avatar and the second avatar in one of the first virtual space and the second virtual space,
The avatar environment determination unit determines the environment of the first avatar based on the one virtual space, and determines the environment of the second avatar based on the one virtual space. .

ここで、アバターの「環境」とは、仮想空間において、アバターに対して影響を与えるものを指す。例えば、アバターの環境とは、存在している仮想空間そのものの種類(地上であるか水中であるか)等である。また、ユーザに「認識させる環境」とは、そのユーザに五感によって認識させる仮想空間の環境を指す。例えば、ユーザの環境とは、ユーザに認識させる仮想空間の画像、音等である。 Here, the avatar's "environment" refers to what affects the avatar in the virtual space. For example, the avatar's environment is the type of existing virtual space itself (whether it is on the ground or in the water). In addition, the “environment to be recognized” by the user refers to the environment of the virtual space that is recognized by the user through the five senses. For example, the user's environment is images, sounds, etc. of the virtual space that the user recognizes.

第2発明の仮想空間体感システムでは、各アバターの動作は、対応するユーザの動作に基づいて制御される。また、各ユーザに認識させる仮想空間の環境は、対応するアバターの仮想空間における環境に基づいて決定される。 In the virtual space experience system of the second invention, the motion of each avatar is controlled based on the corresponding motion of the user. Also, the environment of the virtual space to be recognized by each user is determined based on the environment of the corresponding avatar in the virtual space.

ここで、複数のユーザが同時に仮想空間体感システムを使用する場合であっても、各ユーザが体感する仮想空間(すなわち、仮想空間の環境)は、必ずしも1つの仮想空間に基づくものである必要はなく、ユーザごとに独立した仮想空間に基づくものであってもよい。 Here, even when a plurality of users use the virtual space experience system at the same time, the virtual space experienced by each user (that is, the virtual space environment) does not necessarily have to be based on one virtual space. Instead, it may be based on an independent virtual space for each user.

例えば、第1ユーザに対応する第1アバターを海の仮想空間に存在させて、第1ユーザに仮想の海の環境を体感させると同時に、第2ユーザに対応する第2アバターを山の仮想空間に存在させて、第2ユーザに仮想の山を体感させるような場合もある。 For example, a first avatar corresponding to the first user may be present in the virtual space of the sea to allow the first user to experience the virtual sea environment, and at the same time, a second avatar corresponding to the second user may be placed in the virtual space of the mountain. , so that the second user can experience a virtual mountain.

そして、各アバターの存在する仮想空間が異なり得る場合(すなわち、各ユーザが体感する環境が異なり得る場合)、例えば、各ユーザがコミュニケーション(具体的には、空間の種別を超えての会話等)を行った際等に、あるユーザが自分以外のユーザの環境を体感したい、又は、あるユーザが自分以外のユーザに自らの環境を体感させたいという要望が生じることがある。 Then, when the virtual space in which each avatar exists can be different (that is, when the environment experienced by each user can be different), for example, each user can communicate (specifically, a conversation beyond the type of space). , a user may desire to experience the environment of a user other than himself, or a user may desire to allow a user other than himself to experience his own environment.

そこで、第2発明の仮想空間体感システムでは、所定のトリガーイベントが認識される以前には、第1アバターを第1仮想空間及び第2仮想空間の一方の仮想空間に生成して、その一方の仮想空間に基づいて、第1アバターの環境を決定するとともに、第2アバターを第1仮想空間及び第2仮想空間の他方の仮想空間に生成して、その他方の仮想空間に基づいて、第2アバターの環境を決定する。 Therefore, in the virtual space bodily sensation system of the second invention, before a predetermined trigger event is recognized, the first avatar is generated in one of the first virtual space and the second virtual space, and The environment of the first avatar is determined based on the virtual space, the second avatar is generated in the other virtual space of the first virtual space and the second virtual space, and the second avatar is generated based on the other virtual space. Determines the avatar's environment.

一方で、所定のトリガーイベントが認識された以後には、第1アバター及び第2アバターを第1仮想空間及び第2仮想空間の一方の仮想空間に生成して、その一方の仮想空間に基づいて、第1アバター及び第2アバターの環境を決定する。 On the other hand, after the predetermined trigger event is recognized, the first avatar and the second avatar are generated in one of the first virtual space and the second virtual space, and based on the one virtual space , determine the environment of the first avatar and the second avatar.

これにより、所定のトリガーイベントが認識される以前には、第1ユーザに対応する第1アバターの存在する仮想空間と、第2ユーザに対応する第2アバターの存在する仮想空間とは、独立したものになっている。そのため、アバターの環境は、従来のように、独立したものになる。ひいては、ユーザが体感する環境も、従来のように、独立したものになる。 Thereby, the virtual space in which the first avatar corresponding to the first user exists and the virtual space in which the second avatar corresponding to the second user exists are independent before the predetermined trigger event is recognized. It has become a thing. As such, the avatar's environment becomes independent, as in the past. As a result, the environment experienced by the user becomes independent as in the past.

一方、所定のトリガーイベントが認識された以後には、第1ユーザに対応する第1アバターの存在する仮想空間と第2ユーザに対応する第2アバターの存在する仮想空間とは、同一の仮想空間になる。そのため、アバターの環境は、一致したもの又は同様のものになる。ひいては、ユーザが体感する環境も、一致したもの又は同様のものになる。 On the other hand, after the predetermined trigger event is recognized, the virtual space in which the first avatar corresponding to the first user exists and the virtual space in which the second avatar corresponding to the second user exists are the same virtual space. become. As such, the avatar's environment will match or be similar. Consequently, the environment experienced by the user will also match or be similar.

したがって、第2発明の仮想空間体感システムによれば、所定のトリガーイベントが認識された以後には、アバターの環境を同期させる処理が実行されて、各ユーザに認識させる仮想空間の環境が同様のものになるので、それまで異なる環境を体感していた第1ユーザ及び第2ユーザが、同様の環境を体感することができるようになる。 Therefore, according to the virtual space bodily sensation system of the second invention, after the predetermined trigger event is recognized, the process of synchronizing the environments of the avatars is executed so that the environments of the virtual space recognized by each user are the same. As a result, the first user and the second user, who have experienced different environments until then, can now experience the same environment.

ここで、「所定の動作」としては、アバターがゴーストを基準として行う何らかの動作であればよい。例えば、所定の動作とは、アバターがゴーストに接触するような動作、アバターがゴーストを基準とした所定の範囲内に移動するような動作、アバターが仮想空間に存在するオブジェクトを操作する際に、その対象としてゴーストを選択するような動作(例えば、カメラ型オブジェクトでゴーストを撮影するような動作等)等である。 Here, the "predetermined action" may be any action performed by the avatar with reference to the ghost. For example, the predetermined action is an action in which the avatar touches a ghost, an action in which the avatar moves within a predetermined range based on the ghost, an avatar operating an object existing in the virtual space, An operation of selecting a ghost as the target (for example, an operation of photographing a ghost with a camera-type object, etc.).

複数のユーザが同時に仮想空間体感システムを使用しており、且つ、各ユーザが体感する仮想空間(すなわち、仮想空間の環境)が異なるような場合、各ユーザに他のユーザが存在していることを報知するといった目的等のために、各ユーザの存在する仮想空間に、他の仮想空間に存在している他のユーザに対応し、且つ、その他のユーザに体感させる環境の基準とはならないアバターであるゴーストを生成する場合がある。 When multiple users are using the virtual space experience system at the same time and the virtual space experienced by each user (i.e., virtual space environment) is different, each user has other users. For the purpose of notifying the may generate a ghost that is

そしてアバターがそのゴーストに対して実行する所定の動作を所定のトリガーイベントとして設定すると、アバターに対応するユーザは、その動作を実行した結果、ゴーストに対応するユーザの環境を自らも体感することができることを、直感的に理解することができるようになる。 When a predetermined action performed by the avatar on the ghost is set as a predetermined trigger event, the user corresponding to the avatar can experience the environment of the user corresponding to the ghost as a result of executing the action. You will be able to intuitively understand what you can do.

また、第3発明の複合空間体感システムは、
第1ユーザ及び第2ユーザを含む複数のユーザが存在する現実空間を認識する現実空間認識部と、
前記第1ユーザ及び前記第2ユーザに認識させる仮想のオブジェクトである第1オブジェクト及び第2オブジェクトを生成するオブジェクト生成部と、
前記現実空間に前記第1オブジェクトを存在させた空間である第1複合空間、及び、前記現実空間に前記第2オブジェクトを存在させた空間である第2複合空間を含む複数の複合空間を生成する複合空間生成部と、
前記第1ユーザ及び前記第2ユーザに認識させる環境を決定するユーザ環境決定部と、
トリガーイベントを認識するトリガーイベント認識部と、
前記第1ユーザ及び前記第2ユーザに、前記複合空間の環境を認識させる環境出力器とを備えている複合空間体感システムにおいて、
前記所定のトリガーイベントが認識される以前には、
前記ユーザ環境決定部は、前記第1複合空間及び前記第2複合空間の一方の複合空間における環境を、前記第1ユーザに認識させる環境として決定するとともに、前記第1複合空間及び前記第2複合空間の他方の複合空間における環境を、前記第2ユーザに認識させる環境として決定し、
前記所定のトリガーイベントが認識された以後には、
前記ユーザ環境決定部は、前記第1複合空間及び前記第2複合空間の一方における複合空間における環境を、前記第1ユーザ及び前記第2ユーザに認識させる環境として決定することを特徴とする。
In addition, the complex spatial sensation system of the third invention is
a real space recognition unit that recognizes a real space in which a plurality of users including a first user and a second user exist;
an object generation unit that generates a first object and a second object, which are virtual objects to be recognized by the first user and the second user;
generating a plurality of complex spaces including a first complex space that is a space in which the first object exists in the physical space and a second complex space that is a space in which the second object exists in the physical space; a composite space generator;
a user environment determination unit that determines an environment to be recognized by the first user and the second user;
a trigger event recognition unit that recognizes a trigger event;
A complex spatial sensation system comprising an environment output device that allows the first user and the second user to recognize the environment of the complex space,
Before the predetermined trigger event is recognized,
The user environment determination unit determines an environment in one of the first complex space and the second complex space as an environment to be recognized by the first user, and determines the first complex space and the second complex space. determining the environment in the other composite space of the space as the environment to be recognized by the second user;
After the predetermined trigger event is recognized,
The user environment determining unit determines an environment in one of the first complex space and the second complex space as an environment to be recognized by the first user and the second user.

ここで、ユーザに「認識させる環境」とは、そのユーザに五感によって認識させる複合空間の環境を指す。例えば、ユーザの環境とは、ユーザに認識させる複合空間に存在するオブジェクトの画像、そのオブジェクトに基づいて発生される音等である。 Here, the “environment to be recognized” by the user refers to the environment of the complex space that is recognized by the user through the five senses. For example, the user's environment is an image of an object existing in a complex space recognized by the user, a sound generated based on the object, and the like.

複数のユーザが同時に複合空間体感システムを使用する場合であっても、各ユーザが体感する複合空間(すなわち、複合空間の環境)は、必ずしも単一の複合空間に基づくものである必要はなく、ユーザごとに独立した異なる複合空間に基づくものであってもよい。 Even when multiple users use the complex spatial sensation system at the same time, the complex space experienced by each user (that is, the environment of the complex space) does not necessarily have to be based on a single complex space. It may be based on different composite spaces that are independent for each user.

例えば、第1ユーザに、現実空間の所定の領域に第1オブジェクトを存在させた第1複合空間を体感させると同時に、第2ユーザに、第1複合空間に用いた領域と同じ現実空間の領域に第2オブジェクトを存在させた第2複合空間を体感させるような場合もある。 For example, a first user is allowed to experience a first composite space in which a first object exists in a predetermined region of the physical space, and at the same time, a second user is instructed to experience the same region of the physical space as the region used for the first composite space. In some cases, a second composite space in which a second object is present is experienced.

そして、各ユーザの認識する複合空間が異なり得る場合(すなわち、体感する環境が異なり得る場合)、例えば、各ユーザがコミュニケーション(具体的には、会話等)を行った際等に、あるユーザが自分以外のユーザの環境を体感したい、又は、あるユーザが自分以外のユーザに自らの環境を体感させたいという要望が生じることがある。 Then, when the complex space recognized by each user can be different (that is, when the environment experienced by each user can be different), for example, when each user communicates (specifically, a conversation, etc.), a certain user A user may desire to experience another user's environment, or a user may wish to have another user experience his/her own environment.

そこで、第3発明の複合空間体感システムでは、トリガーイベントが認識される以前には、第1複合空間及び第2複合空間の一方の複合空間における環境を、第1ユーザに認識させる環境として決定するとともに、第1複合空間及び第2複合空間の他方における環境を、第2ユーザに認識させる環境として決定する。 Therefore, in the complex spatial sensation system of the third invention, before the trigger event is recognized, the environment in one of the first complex space and the second complex space is determined as the environment to be recognized by the first user. In addition, the environment in the other of the first complex space and the second complex space is determined as the environment to be recognized by the second user.

一方で、トリガーイベントが認識された以後には、第1複合空間及び第2複合空間の一方の複合空間における環境を、第1ユーザ及び第2ユーザに認識させる環境として決定する。 On the other hand, after the trigger event is recognized, the environment in one of the first complex space and the second complex space is determined as the environment to be recognized by the first user and the second user.

これにより、トリガーイベントが認識される以前には、第1ユーザが体感する複合空間と第2ユーザが体感する複合空間とは、存在する仮想のオブジェクトが互いに独立した複合空間になる。 As a result, before the trigger event is recognized, the composite space experienced by the first user and the composite space experienced by the second user become composite spaces in which existing virtual objects are independent of each other.

一方、トリガーイベントが認識された以後には、第1ユーザの体感する複合空間と第2ユーザの体感する複合空間とは、存在する仮想のオブジェクトが一致した同一の複合空間になる。 On the other hand, after the trigger event is recognized, the complex space experienced by the first user and the complex space experienced by the second user become the same complex space in which existing virtual objects match.

したがって、第3発明の複合空間体感システムによれば、トリガーイベントが認識された以後には、複合空間に存在するオブジェクトを同期させるための処理が実行されて、各ユーザに認識させる複合空間の環境が同様のものになるので、それまで異なる環境を体感していた第1ユーザ及び第2ユーザが、同様の環境を体感することができるようになる。 Therefore, according to the complex spatial experience system of the third invention, after the trigger event is recognized, the process for synchronizing the objects existing in the complex space is executed, and the environment of the complex space is made to be recognized by each user. become similar, the first user and the second user, who have experienced different environments up until now, can now experience similar environments.

また、第3発明の複合空間体感システムにおいては、
前記現実空間における前記ユーザの動作を認識するユーザ動作認識部を備え、
前記所定のトリガーイベントは、前記複合空間で前記第1ユーザ及び前記第2ユーザの一方が前記第1ユーザ及び前記第2ユーザの他方に対して実行する所定の動作であることが好ましい。
Further, in the complex spatial sensation system of the third invention,
a user action recognition unit that recognizes actions of the user in the physical space;
Preferably, the predetermined trigger event is a predetermined action performed by one of the first user and the second user on the other of the first user and the second user in the complex space.

ここで、「所定の動作」としては、第1ユーザ及び第2ユーザの一方が他方を基準として行う何らかの動作であればよい。例えば、所定の動作とは、第1ユーザが第2ユーザに接触するような動作、第1ユーザが第2ユーザを基準とした所定の範囲内に移動するような動作、第1ユーザが複合空間に存在する仮想又は実在のオブジェクトを操作する際に、その対象として第2ユーザを選択するような動作(例えば、仮想の携帯端末又は実在の携帯端末のカメラで第2ユーザを撮影するような動作等)等である。 Here, the "predetermined action" may be any action performed by one of the first user and the second user based on the other. For example, the predetermined action is an action in which the first user touches the second user, an action in which the first user moves within a predetermined range with respect to the second user, and an action in which the first user moves into a complex space. When operating a virtual or real object that exists in a virtual or real object, an action to select the second user as the target (for example, an action to take a picture of the second user with the camera of a virtual mobile terminal or a real mobile terminal etc.).

このように、第1ユーザが第2ユーザに対して実行する所定の動作を所定のトリガーイベントとして設定すると、第1ユーザは、その動作を実行した結果、第2ユーザの環境を自らも体感することができることを、直感的に理解することができるようになる。 Thus, when the first user sets a predetermined action to be performed by the second user as a predetermined trigger event, the first user also experiences the second user's environment as a result of executing the action. You will be able to intuitively understand what you can do.

第1実施形態に係るVRシステムの概略構成を示す模式図。1 is a schematic diagram showing a schematic configuration of a VR system according to a first embodiment; FIG. 図1のVRシステムの処理部の構成を示すブロック図。FIG. 2 is a block diagram showing the configuration of a processing unit of the VR system in FIG. 1; 図2のVRシステムが通常の使用状態において実行する処理を示すフローチャート。FIG. 3 is a flowchart showing processing executed by the VR system of FIG. 2 in normal use; FIG. 図2のVRシステムの通常の使用状態における現実空間及び仮想空間の状態を示す模式図。FIG. 3 is a schematic diagram showing states of a real space and a virtual space in a normal usage state of the VR system of FIG. 2; 図2のVRシステムがアバターの特性を同期させる際に実行する処理を示すフローチャート。FIG. 3 is a flow chart showing the processing performed by the VR system of FIG. 2 when synchronizing avatar characteristics; FIG. 図2のVRシステムにおいてトリガーイベントが発生する際における仮想空間の状態を示す模式図。FIG. 3 is a schematic diagram showing the state of the virtual space when a trigger event occurs in the VR system of FIG. 2; 図2のVRシステムにおいてトリガーイベントが発生した後における仮想空間の状態を示す模式図。FIG. 3 is a schematic diagram showing the state of the virtual space after a trigger event has occurred in the VR system of FIG. 2; 第2実施形態に係るVRシステムの処理部の構成を示すブロック図。The block diagram which shows the structure of the process part of the VR system which concerns on 2nd Embodiment. 図8のVRシステムが通常の使用状態において実行する処理を示すフローチャート。9 is a flow chart showing processing executed by the VR system of FIG. 8 in normal use. 図8のVRシステムの通常の使用状態における現実空間及び仮想空間の状態を示す模式図。FIG. 9 is a schematic diagram showing the states of the real space and the virtual space in the normal usage state of the VR system of FIG. 8; 図8のVRシステムが仮想空間を同期させる際に実行する処理を示すフローチャート。FIG. 9 is a flow chart showing processing executed when the VR system in FIG. 8 synchronizes the virtual space; FIG. 図8のVRシステムにおいてトリガーイベントが発生する際における仮想空間の状態を示す模式図。FIG. 9 is a schematic diagram showing the state of the virtual space when a trigger event occurs in the VR system of FIG. 8; 図8のVRシステムにおいてトリガーイベントが発生した後における仮想空間の状態を示す模式図。FIG. 9 is a schematic diagram showing the state of the virtual space after a trigger event has occurred in the VR system of FIG. 8; 第3実施形態に係るMRシステムの概略構成を示す模式図。The schematic diagram which shows schematic structure of the MR system which concerns on 3rd Embodiment. 図14のMRシステムの処理部の構成を示すブロック図。FIG. 15 is a block diagram showing the configuration of the processing unit of the MR system of FIG. 14; 図15のMRシステムが通常の使用状態において実行する処理を示すフローチャート。FIG. 16 is a flow chart showing processing executed by the MR system of FIG. 15 in normal use; FIG. 図15のMRシステムの通常の使用状態における現実空間及び複合空間の状態を示す模式図。FIG. 16 is a schematic diagram showing the states of the real space and the composite space in normal use of the MR system of FIG. 15; 図15のMRシステムが複合空間を同期させる際に実行する処理を示すフローチャート。FIG. 16 is a flow chart showing processing executed when the MR system of FIG. 15 synchronizes complex spaces; FIG. 図15のMRシステムにおいてトリガーイベントが発生する際における仮想空間の状態を示す模式図。FIG. 16 is a schematic diagram showing the state of the virtual space when a trigger event occurs in the MR system of FIG. 15; 図15のVRシステムにおいてトリガーイベントが発生した後における仮想空間の状態を示す模式図。FIG. 16 is a schematic diagram showing the state of the virtual space after a trigger event has occurred in the VR system of FIG. 15;

以下、図面を参照して、第1発明に対応する第1実施形態に係る仮想空間体感システム、第2発明に対応する第2実施形態に係る仮想空間体感システム、及び、第3実施形態に対応する複合空間体感システムについて、説明する。 Hereinafter, referring to the drawings, a virtual space sensation system according to the first embodiment corresponding to the first invention, a virtual space sensation system according to the second embodiment corresponding to the second invention, and a virtual space sensation system according to the third embodiment A complex spatial sensation system that

[第1実施形態]
以下、図1~図7を参照して、第1実施形態に係る仮想空間体感システムであるS1について説明する。
[First embodiment]
The virtual space experience system S1 according to the first embodiment will be described below with reference to FIGS. 1 to 7. FIG.

VRシステムS1は、現実空間RSの所定の領域(例えば、1つの部屋等)に共に存在する第1ユーザU1及び第2ユーザU2(以下、総称する場合は「ユーザU」という。)に対し、その領域に対応する1つの仮想空間VSに、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2アバターA2を介して、自らが共に存在すると認識させるものである(図4等参照)。 The VR system S1 is for a first user U1 and a second user U2 (hereinafter collectively referred to as "users U") existing together in a predetermined area (for example, one room, etc.) of the physical space RS. One virtual space VS corresponding to the area is made to recognize that they exist together via the first avatar A1 corresponding to the first user U1 and the second avatar A2 corresponding to the second user U2 ( See Fig. 4, etc.).

なお、本実施形態では、理解を容易にするために、ユーザは2人としている。しかし、第1発明の仮想空間体感システムは、そのような構成に限定されるものではなく、ユーザの数は3人以上であってもよい。 In this embodiment, two users are assumed for easy understanding. However, the virtual space experience system of the first invention is not limited to such a configuration, and the number of users may be three or more.

[システムの概略構成]
まず、図1を参照して、VRシステムS1の概略構成について説明する。
[Schematic configuration of the system]
First, a schematic configuration of the VR system S1 will be described with reference to FIG.

図1に示すように、VRシステムS1は、現実空間RSに存在するユーザUに取り付けられる複数の標識1と、ユーザU(厳密には、ユーザUに取り付けられた標識1)を撮影するカメラ2と、仮想空間VS(図4等参照)の画像及び音を決定するサーバ3と、決定された画像及び音をユーザに認識させるヘッドマウントディスプレイ(以下、「HMD4」という。)とを備えている。 As shown in FIG. 1, a VR system S1 includes a plurality of markers 1 attached to a user U existing in a physical space RS, and a camera 2 that captures the user U (strictly speaking, the marker 1 attached to the user U). , a server 3 that determines the image and sound of the virtual space VS (see FIG. 4, etc.), and a head-mounted display (hereinafter referred to as “HMD 4”) that allows the user to recognize the determined image and sound. .

VRシステムS1では、カメラ2、サーバ3及びHMD4は、インターネット網、公衆回線、近距離無線通信等の無線で相互に情報を送受信可能となっている。ただし、それらのいずれか同士を有線で相互に情報を送受信可能に構成してもよい。 In the VR system S1, the camera 2, the server 3, and the HMD 4 can mutually transmit and receive information wirelessly, such as through the Internet network, a public line, or short-range wireless communication. However, any one of them may be configured to transmit and receive information to and from each other by wire.

複数の標識1は、ユーザUの装着するHMD4、手袋及び靴を介して、ユーザUの頭部、両手及び両足のそれぞれに取り付けられている。なお、複数の標識1は、後述するようにユーザUの現実空間RSにおける座標及び姿勢、並びに、動作(例えば、座標の移動、向きを含む姿勢の変化等)を認識するために用いられるものである。そのため、VRシステムS1を構成する他の機器に応じて、標識1の取り付け位置は適宜変更してよい。 A plurality of markers 1 are attached to the user's U head, both hands, and both feet via the HMD 4, gloves, and shoes that the user U wears. As will be described later, the plurality of markers 1 are used for recognizing the coordinates and posture of the user U in the physical space RS, as well as actions (for example, movement of coordinates, changes in posture including orientation, etc.). be. Therefore, the attachment position of the marker 1 may be changed as appropriate according to other devices that configure the VR system S1.

カメラ2は、ユーザUの存在する現実空間RSのユーザUが動作可能範囲(すなわち、座標の移動、姿勢の変化等をし得る範囲)を多方向から撮影可能なように設置されている。 The camera 2 is installed so that the user U's operable range (that is, the range in which the user U can move, change the posture, etc.) in the physical space RS where the user U exists can be photographed from multiple directions.

サーバ3は、カメラ2が撮影した画像から標識1を認識し、その認識された標識1の現実空間RSにおける位置に基づいて、ユーザUの座標及び姿勢を認識する。また、サーバ3は、その座標及び姿勢に基づいて、ユーザUに認識させる仮想空間VSの画像及び音を決定する。 The server 3 recognizes the sign 1 from the image captured by the camera 2, and recognizes the coordinates and orientation of the user U based on the position of the recognized sign 1 in the physical space RS. Also, the server 3 determines images and sounds of the virtual space VS to be recognized by the user U, based on the coordinates and orientation.

HMD4は、ユーザに仮想空間VSの環境を認識させる環境出力器である。HMD4は、ユーザUの頭部に装着される。HMD4は、ユーザUに、サーバ3によって決定された仮想空間VSの画像をユーザUの認識させるためのモニタ40と、サーバ3によって決定された仮想空間VSの音をユーザUに認識させるためのスピーカ41とを有している(図2参照)。 The HMD 4 is an environment output device that allows the user to recognize the environment of the virtual space VS. The HMD 4 is worn on the user's U head. The HMD 4 includes a monitor 40 for allowing the user U to recognize the image of the virtual space VS determined by the server 3, and a speaker for allowing the user U to recognize the sound of the virtual space VS determined by the server 3. 41 (see FIG. 2).

VRシステムS1を用いて仮想空間VSを体感する場合、ユーザUは、仮想空間VSの画像と音のみを認識して、ユーザU自身が仮想空間VSに存在していると認識させられる。すなわち、VRシステムS1は、いわゆる没入型のシステムとして構成されている。 When experiencing the virtual space VS using the VR system S1, the user U recognizes only the images and sounds of the virtual space VS, and is made to recognize that the user U himself/herself exists in the virtual space VS. That is, the VR system S1 is configured as a so-called immersive system.

なお、第1発明の仮想空間体感システムは、そのような構成に限定されるものではない。例えば、モーションキャプチャー装置を使用する場合には、上記の構成のものの他、標識及びカメラの数及び配置が上記構成とは異なる(例えば、それぞれ1つずつ設けられている)ものを用いてもよい。また、標識を用いずに、ユーザの画像そのものから特徴点を認識して、ユーザの姿勢及び座標を認識するようにしてもよい。 Note that the virtual space sensation system of the first invention is not limited to such a configuration. For example, when using a motion capture device, in addition to the above configuration, the number and arrangement of signs and cameras different from the above configuration (for example, one each is provided) may be used. . Alternatively, the posture and coordinates of the user may be recognized by recognizing feature points from the user's image itself without using the mark.

また、例えば、モーションキャプチャー装置に代わり、ユーザの座標のみを認識する装置を用いてもよい。具体的には、例えば、HMDにGPS等のセンサを搭載し、そのセンサからの出力に基づいて、ユーザの座標、姿勢等を認識するようにしてもよい。また、そのようなセンサと、上記のようなモーションキャプチャー装置とを併用してもよい。 Also, for example, instead of the motion capture device, a device that recognizes only the coordinates of the user may be used. Specifically, for example, a sensor such as GPS may be installed in the HMD, and the user's coordinates, posture, etc. may be recognized based on the output from the sensor. Also, such a sensor may be used in combination with the motion capture device as described above.

[処理部の構成]
次に、図2を用いて、サーバ3の備えている処理部の構成を詳細に説明する。
[Configuration of processing unit]
Next, with reference to FIG. 2, the configuration of the processing units included in the server 3 will be described in detail.

サーバ3は、CPU、RAM、ROM、インターフェース回路等を含む1つ又は複数の電子回路ユニットにより構成されている。サーバ3は、実装されたハードウェア構成又はプログラムにより実現される機能(処理部)として、図2に示すように、仮想環境生成部30と、ユーザ動作認識部31と、アバター動作制御部32と、アバター環境決定部33と、ユーザ環境決定部34と、トリガーイベント認識部35とを備えている。 The server 3 is composed of one or a plurality of electronic circuit units including CPU, RAM, ROM, interface circuits, and the like. As shown in FIG. 2, the server 3 includes a virtual environment generation unit 30, a user action recognition unit 31, and an avatar action control unit 32 as functions (processing units) implemented by the implemented hardware configuration or programs. , an avatar environment determination unit 33 , a user environment determination unit 34 , and a trigger event recognition unit 35 .

仮想環境生成部30は、仮想空間生成部30aと、アバター生成部30bとを有している。 The virtual environment generator 30 has a virtual space generator 30a and an avatar generator 30b.

仮想空間生成部30aは、ユーザUが存在する現実空間RSに対応する仮想空間VSを生成する。具体的には、仮想空間生成部30aは、仮想空間VSの背景及び仮想空間VSに存在するオブジェクトとなる画像、及び、それらの画像に関連する音を生成する。 The virtual space generator 30a generates a virtual space VS corresponding to the physical space RS in which the user U exists. Specifically, the virtual space generator 30a generates images that are the background of the virtual space VS and objects that exist in the virtual space VS, and sounds related to those images.

なお、本実施形態のVRシステムS1は備えていないが、仮想空間体感システムが、所定の感触を実現する構成(例えば、硬さの変わるクッション等)、所定の匂いを生成する等を備えている場合には、仮想空間生成部は、画像及び音に加えて、それらの感触、匂いを用いて、仮想空間を生成するようにしてもよい。 Although the VR system S1 of this embodiment is not provided, the virtual space sensory system is provided with a configuration that realizes a predetermined feel (for example, a cushion that changes in hardness, etc.) and that generates a predetermined smell. In some cases, the virtual space generation unit may generate the virtual space using not only the images and sounds but also their touches and smells.

アバター生成部30bは、仮想空間VSに、第1ユーザU1に対応する第1アバターA1を生成し、第2ユーザU2に対応する第2アバターA2を生成する(図4等参照)。 The avatar generation unit 30b generates a first avatar A1 corresponding to the first user U1 and a second avatar A2 corresponding to the second user U2 in the virtual space VS (see FIG. 4, etc.).

第1アバターA1及び第2アバターA2(以下、総称する場合は「アバターA」という。)は、対応するユーザUの現実空間RSにおける動作に対応して、仮想空間VSにおいて動作する。 The first avatar A1 and the second avatar A2 (hereinafter collectively referred to as "avatar A") move in the virtual space VS in response to the corresponding motion of the user U in the physical space RS.

ユーザ動作認識部31は、カメラ2が撮影した標識1を含むユーザUの画像データを認識し、その画像データに基づいて、ユーザUの現実空間RSにおける動作を認識する。ユーザ動作認識部31は、ユーザ姿勢認識部31aと、ユーザ座標認識部31bとを有している。 The user motion recognition unit 31 recognizes image data of the user U including the sign 1 captured by the camera 2, and recognizes the motion of the user U in the physical space RS based on the image data. The user action recognition section 31 has a user posture recognition section 31a and a user coordinate recognition section 31b.

ユーザ姿勢認識部31aは、入力されたユーザUの画像データから標識1を抽出し、その抽出結果に基づいて、ユーザUの向きを含む姿勢を認識する。 The user posture recognition unit 31a extracts the marker 1 from the input image data of the user U, and recognizes the posture including the orientation of the user U based on the extraction result.

ユーザ座標認識部31bは、入力されたユーザUの画像データから標識1を抽出し、その抽出結果に基づいて、ユーザUの座標を認識する。 The user coordinate recognition unit 31b extracts the marker 1 from the input image data of the user U, and recognizes the coordinates of the user U based on the extraction result.

アバター動作制御部32は、アバター生成部30bによって生成されたアバターAに、特性を付与する。本実施形態では、特性の付与は、VRシステムS1の使用開始時(例えば、使用するアバターAの種類の選択時等)に実行される。ただし、その特性は、VRシステムS1の使用中に変更される場合がある。例えば、後述するトリガーイベントが認識された際に変更される。 The avatar action control unit 32 gives characteristics to the avatar A generated by the avatar generation unit 30b. In this embodiment, the properties are assigned when the VR system S1 is started to be used (for example, when the type of avatar A to be used is selected). However, its characteristics may change during use of the VR system S1. For example, it is changed when a trigger event, which will be described later, is recognized.

ここで、「特性」とは、ユーザの動作に対する、そのユーザに対応するアバターの動作を規定する特性であり、複数種類存在するものである。その特性としては、具体的には、仮想空間VSにおけるアバターのサイズ、アバターの機能(例えば、移動可能速度、移動可能範囲等)である。 Here, the "characteristic" is a characteristic that defines the action of the avatar corresponding to the user in response to the action of the user, and there are a plurality of types of such properties. Specifically, the characteristics are the size of the avatar in the virtual space VS, and the functions of the avatar (for example, movable speed, movable range, etc.).

また、アバター動作制御部32は、ユーザ姿勢認識部31aによって認識されたユーザUの現実空間RSにおける姿勢、ユーザ座標認識部31bによって認識されたユーザUの現実空間RSにおける座標、及び、付与された特性に基づいて、そのユーザUに対応するアバターAの仮想空間VSにおける動作(例えば、座標の移動、向きを含む姿勢の変化等)を決定する。 The avatar motion control unit 32 also recognizes the posture of the user U in the physical space RS recognized by the user posture recognition unit 31a, the coordinates of the user U in the physical space RS recognized by the user coordinate recognition unit 31b, and the assigned Based on the characteristics, the action of the avatar A corresponding to the user U in the virtual space VS (for example, movement of coordinates, change of posture including orientation, etc.) is determined.

アバター環境決定部33は、アバターAの動作の結果(例えば、その時点における座標、姿勢等)に基づいて、仮想空間VSにおけるアバターAの環境を決定する。 The avatar environment determining unit 33 determines the environment of the avatar A in the virtual space VS based on the result of the action of the avatar A (for example, coordinates, posture, etc. at that time).

ここで、本実施形態におけるアバターの「環境」とは、仮想空間において、アバターに対して影響を与えるものを指す。例えば、アバターの環境とは、仮想空間に存在しているオブジェクトの状態、仮想空間VSにおける物理的な法則(時間の流れる速さ、重力の大きさ等)等である。 Here, the avatar's "environment" in the present embodiment refers to what affects the avatar in the virtual space. For example, the environment of the avatar includes the state of objects existing in the virtual space, physical laws (speed of time flow, magnitude of gravity, etc.) in the virtual space VS.

ユーザ環境決定部34は、アバターAの環境に基づいて、そのアバターAに対応するユーザUに、HMD4のモニタ40及びスピーカ41を介して認識させる仮想空間RSの環境(画像及び音)を決定する。 Based on the environment of the avatar A, the user environment determination unit 34 determines the environment (image and sound) of the virtual space RS to be recognized by the user U corresponding to the avatar A through the monitor 40 and the speaker 41 of the HMD 4. .

ここで、ユーザに「認識させる環境」とは、そのユーザに五感によって認識させる仮想空間の環境を指す。例えば、ユーザUの環境とは、ユーザに認識させる仮想空間の画像、音等である。 Here, the “environment to be recognized” by the user refers to the environment of the virtual space that is recognized by the user through the five senses. For example, the environment of the user U is images, sounds, etc. of the virtual space that the user recognizes.

また、ここで、「仮想空間の画像」には、仮想空間の背景の画像の他、他のアバターの画像、仮想空間にのみ存在するオブジェクトの画像、現実空間に対応して仮想空間に存在するオブジェクトの画像等が含まれる。 Here, the "image of the virtual space" includes, in addition to the image of the background of the virtual space, the image of another avatar, the image of an object that exists only in the virtual space, and the image that exists in the virtual space corresponding to the real space. Images of objects, etc. are included.

トリガーイベント認識部35は、システム設計者が予め定めた条件を満たした際に、所定のトリガーイベントが発生したことを認識する。 The trigger event recognition unit 35 recognizes that a predetermined trigger event has occurred when a condition predetermined by the system designer is satisfied.

ここで、「トリガーイベント」は、ユーザがその発生を認識していないものであってもよい。そのため、トリガーイベントとしては、例えば、ユーザが現実空間において所定の動作を行うこと(すなわち、ユーザに対応するアバターが仮想空間において所定の動作を行うこと)等のユーザの動作に起因するものも該当するし、所定時間の経過といったユーザの動作に起因しないものも該当する。 Here, the "trigger event" may be one of which the user is unaware of its occurrence. Therefore, as a trigger event, for example, events caused by user actions such as the user performing a predetermined action in the real space (that is, the avatar corresponding to the user performing a predetermined action in the virtual space) are also applicable. In addition, it also applies to events that are not caused by the user's actions, such as the passage of a predetermined period of time.

なお、第1発明の仮想空間体感システムを構成する各処理部は、上記のような構成に限定されるものではない。 It should be noted that each processing unit that constitutes the virtual space experience system of the first invention is not limited to the configuration as described above.

例えば、本実施形態においてサーバ3に設けられている処理部の一部を、HMD4に設けてもよい。また、複数のサーバを用いて構成してもよいし、サーバを省略してHMDに搭載されているCPUを協働させて構成してもよい。また、HMDに搭載されているスピーカ以外のスピーカを設けてもよい。また、視覚及び聴覚へ影響を与えるデバイスの他、仮想空間に応じた匂い、風等を生じさせるような嗅覚及び触覚へ影響を与えるデバイスを含めてもよい。 For example, part of the processing unit provided in the server 3 in this embodiment may be provided in the HMD 4 . Alternatively, a plurality of servers may be used, or the servers may be omitted and the CPUs mounted on the HMDs may cooperate with each other. Also, a speaker other than the speaker mounted on the HMD may be provided. In addition to devices that affect sight and hearing, devices that affect smell and touch such as generating smells, wind, etc. according to the virtual space may also be included.

[実行される処理]
次に、図2~図7を参照して、VRシステムS1を用いてユーザUに仮想空間VSを体感させる際に、VRシステムS1の実行する処理について説明する。
[Process to be executed]
Next, with reference to FIGS. 2 to 7, processing executed by the VR system S1 when allowing the user U to experience the virtual space VS using the VR system S1 will be described.

[通常の使用状態における処理]
まず、図2~図4を参照して、VRシステムS1が使用開始時、及び、通常の使用状態(すなわち、後述する所定のトリガーイベントを認識していない状態)で実行する処理について説明する。
[Processing during normal use]
First, with reference to FIGS. 2 to 4, the processing executed by the VR system S1 at the start of use and in normal use (that is, in a state in which a predetermined trigger event to be described later is not recognized) will be described.

この処理においては、まず、サーバ3の仮想環境生成部30は、仮想空間VS、第1アバターA1及び第2アバターA2を生成する(図3/STEP100)。 In this process, first, the virtual environment generator 30 of the server 3 generates the virtual space VS, the first avatar A1 and the second avatar A2 (FIG. 3/STEP 100).

具体的には、図4に示すように、仮想環境生成部30の仮想空間生成部30aは、仮想空間VSの背景となる画像及び仮想空間VSに存在する各種オブジェクトを生成する。また、仮想環境生成部30のアバター生成部30bは、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2アバターA2を生成する。 Specifically, as shown in FIG. 4, the virtual space generation unit 30a of the virtual environment generation unit 30 generates an image serving as a background of the virtual space VS and various objects existing in the virtual space VS. Also, the avatar generation unit 30b of the virtual environment generation unit 30 generates a first avatar A1 corresponding to the first user U1 and a second avatar A2 corresponding to the second user U2.

次に、サーバ3のアバター動作制御部32は、第1アバターA1に第1特性を付与するとともに、第2アバターA2に第2特性を付与する(図3/STEP101)。 Next, the avatar action control unit 32 of the server 3 assigns the first property to the first avatar A1 and the second property to the second avatar A2 (FIG. 3/STEP 101).

本実施形態では、アバターAに付与される特性は、そのアバターAの形状に連動したものとなっている。 In this embodiment, the characteristics given to the avatar A are linked to the shape of the avatar A.

具体的には、第1アバターA1の形状は、カメを擬人化した形状であり、第1アバターA1には、その形状に対応した第1特性が付与される。第1特性は、仮想空間VSに配置された所定のオブジェクト(例えば、図4に示す草等)に比べて大きいという特性、及び、対応するユーザの現実空間RSにおける動作がアバターの動作に反映されるまでの時間が長い(すなわち、動作の反映速度が遅い)という特性を含む特性である。 Specifically, the shape of the first avatar A1 is an anthropomorphic shape of a turtle, and the first avatar A1 is given a first characteristic corresponding to the shape. The first characteristic is that it is larger than a predetermined object (for example, grass shown in FIG. 4) placed in the virtual space VS, and the corresponding user's motion in the real space RS is reflected in the avatar's motion. It is a characteristic that includes a characteristic that it takes a long time to complete (that is, the reflection speed of the operation is slow).

一方、第2アバターA2の形状は、ウサギを擬人化した形状であり、第2アバターA2には、その形状に対応した第2特性が付与される。第2特性は、仮想空間VSに配置された所定のオブジェクトに比べて小さいという特性、及び、対応するユーザの現実空間RSにおける動作がアバターの動作に反映されるまでの時間が短い(すなわち、動作の反映速度が速い)という特性を含む特性である。 On the other hand, the shape of the second avatar A2 is an anthropomorphic shape of a rabbit, and the second avatar A2 is given a second characteristic corresponding to the shape. The second characteristic is that it is smaller than a predetermined object placed in the virtual space VS, and that the corresponding user's motion in the real space RS is reflected in the avatar's motion in a short time (that is, the motion is reflected quickly).

そのため、仮に、仮想空間VSにおいて、第1アバターA1と第2アバターA2とが、互いに隣接する座標に位置していた場合であっても、それらのアバターAのサイズ(すなわち、視点の高さ)という特性が異なるので、第1アバターA1として第1ユーザU1が見渡すことのできる範囲(すなわち、視認できるオブジェクト)という環境と、第2アバターA2として第2ユーザU2が見渡すことのできる範囲という環境とは、異なることになる。 Therefore, even if the first avatar A1 and the second avatar A2 are located at coordinates adjacent to each other in the virtual space VS, the sizes of the avatars A (that is, the height of the viewpoint) Therefore, the environment of the range that the first user U1 can look over as the first avatar A1 (that is, the visible object) and the environment of the range that the second user U2 can look over as the second avatar A2. will be different.

また、仮に、現実空間RSにおいて、第1ユーザU1と第2ユーザU2とが同様の動作を行った場合であっても、対応するアバターAの動作の反映速度という特性が異なるので、第1アバターA1として第1ユーザU1が体感する風景の変化速度という環境と、第2アバターA2として第2ユーザU2が体感する風景の変化速度(すなわち、オブジェクトの相対的な移動速度)という環境とは、異なることになる。 Further, even if the first user U1 and the second user U2 perform the same action in the physical space RS, the characteristic of the reflection speed of the action of the corresponding avatar A is different. The environment of the scenery change speed experienced by the first user U1 as A1 is different from the environment of the scenery change speed experienced by the second user U2 as the second avatar A2 (that is, the relative movement speed of the object). It will be.

次に、サーバ3のアバター動作制御部32は、第1ユーザU1の動作及び第1アバターA1に付与された特性に基づいて、第1アバターA1の動作を決定し、第2ユーザU2の動作及び第2アバターA2に付与された特性に基づいて、第2アバターA2の動作を決定する(図3/STEP102)。 Next, the avatar action control unit 32 of the server 3 determines the action of the first avatar A1 based on the action of the first user U1 and the characteristics given to the first avatar A1, and the action of the second user U2 and The action of the second avatar A2 is determined based on the characteristics assigned to the second avatar A2 (FIG. 3/STEP 102).

このSTEP102以降の処理における第1ユーザU1及び第2ユーザU2の動作は、カメラ2によって撮影された画像データに基づいてサーバ3のユーザ動作認識部31によって認識された動作が用いられる。 For the actions of the first user U1 and the second user U2 in the processing after STEP 102, actions recognized by the user action recognition unit 31 of the server 3 based on image data captured by the camera 2 are used.

次に、サーバ3のアバター環境決定部33は、第1アバターA1の動作に基づいて、第1アバターA1の環境を決定し、第2アバターA2の動作に基づいて、第2アバターA2の環境を決定する(図3/STEP103)。 Next, the avatar environment determination unit 33 of the server 3 determines the environment of the first avatar A1 based on the motion of the first avatar A1, and determines the environment of the second avatar A2 based on the motion of the second avatar A2. Determine (FIG. 3/STEP 103).

具体的には、アバター環境決定部33は、アバターAの動作過程及びそのアバターAの動作の反映速度という特性に基づいて、仮想空間VSの風景の変化速度という環境を決定し、アバターAの動作の結果及びアバターAのサイズという特性に基づいて、アバターAが見渡すことのできる風景という環境を決定する。 Specifically, the avatar environment determining unit 33 determines the environment of the change speed of the scenery in the virtual space VS based on the characteristics of the action process of the avatar A and the reflection speed of the action of the avatar A, and the characteristics of the size of avatar A, determine the environment of landscape that avatar A can overlook.

次に、サーバ3のユーザ環境決定部34は、第1ユーザU1に認識させる環境を、第1アバターA1の環境に基づいて決定し、第2ユーザU2に認識させる環境を、第2アバターA2の環境に基づいて決定する(図3/STEP104)。 Next, the user environment determination unit 34 of the server 3 determines the environment to be recognized by the first user U1 based on the environment of the first avatar A1, and determines the environment to be recognized by the second user U2 as the environment of the second avatar A2. It is determined based on the environment (FIG. 3/STEP 104).

具体的には、ユーザ環境決定部34は、第1ユーザU1に認識させる環境として、第1アバターA1の環境を表す仮想空間VSの画像及び音を決定し、第2ユーザU2に認識させる環境として、第2アバターA2の環境を表す仮想空間VSの画像及び音を決定する。 Specifically, the user environment determining unit 34 determines the image and sound of the virtual space VS representing the environment of the first avatar A1 as the environment to be recognized by the first user U1, and determines the environment to be recognized by the second user U2. , determine the images and sounds of the virtual space VS representing the environment of the second avatar A2.

次に、ユーザUに装着されたHMD4は、決定された環境を出力する(図3/STEP105)。 Next, the HMD 4 worn by the user U outputs the determined environment (FIG. 3/STEP 105).

具体的には、HMD4は、HMD4に搭載されているモニタ40に決定された画像を表示させ、HMD4に搭載されているスピーカ41に決定された音を発生させる。 Specifically, the HMD 4 causes the monitor 40 mounted on the HMD 4 to display the determined image, and the speaker 41 mounted on the HMD 4 to generate the determined sound.

次に、サーバ3のユーザ動作認識部31は、第1ユーザU1又は第2ユーザU2がなんらかの動作を行ったか否かを判断する(図3/STEP106)。 Next, the user action recognition unit 31 of the server 3 determines whether or not the first user U1 or the second user U2 has performed some action (FIG. 3/STEP 106).

第1ユーザU1又は第2ユーザU2がなんらかの動作を行った場合(STEP106でYESの場合)、STEP102に戻り、再度、STEP102以降の処理が実行される。 If the first user U1 or the second user U2 performs some action (YES in STEP106), the process returns to STEP102, and the processes after STEP102 are executed again.

一方、第1ユーザU1又は第2ユーザU2がなんらかの動作を行っていなかった場合(STEP106でNOの場合)、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図3/STEP107)。 On the other hand, if the first user U1 or the second user U2 has not performed any action (NO in STEP 106), the server 3 determines whether or not it has recognized a signal instructing the end of the process (Fig. 3/ STEP 107).

終了を指示する信号を認識できなかった場合(STEP107でNOの場合)、STEP106に戻り、再度、STEP106以降の処理が実行される。 If the signal instructing the end cannot be recognized (NO in STEP 107), the process returns to STEP 106, and the processes after STEP 106 are executed again.

一方、終了を指示する信号を認識した場合(STEP107でYESの場合)、VRシステムS1は、今回の処理を終了する。 On the other hand, if the signal instructing the end is recognized (YES in STEP 107), the VR system S1 ends the current process.

以上の処理により、図4に示すように、仮想空間VSでは、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2アバターA2を含む複数のオブジェクトが設置される。 By the above process, as shown in FIG. 4, a plurality of objects including a first avatar A1 corresponding to the first user U1 and a second avatar A2 corresponding to the second user U2 are installed in the virtual space VS.

そして、第1ユーザU1及び第2ユーザU2は、それぞれが装着したHMD4で表示される画像及び発生される音によって、それぞれに対応する第1アバターA1及び第2アバターA2を介して、自身が仮想空間VSに存在し、自由に動作することができると認識するようになる。 Then, the first user U1 and the second user U2 can visualize themselves via the corresponding first avatars A1 and second avatars A2 by the images displayed and the sounds generated by the HMDs 4 they wear. It comes to recognize that it exists in space VS and can move freely.

[特性を同期させる際及びそれ以降における処理]
次に、図2、図5~図7を参照して、特性を同期させる際及びそれ以後において実行する処理について説明する。
[Processing when synchronizing characteristics and after]
Next, with reference to FIGS. 2 and 5 to 7, processing to be executed when synchronizing characteristics and thereafter will be described.

まず、この処理の具体的な説明に先立ち、この処理が実行される背景について説明する。 First, prior to a specific description of this process, the background of the execution of this process will be described.

前述のように、VRシステムS1では、第1アバターA1には、第1特性が付与され、第2アバターA2には、第1特性とは異なる第2特性が付与されている。 As described above, in the VR system S1, the first avatar A1 is given the first property, and the second avatar A2 is given the second property different from the first property.

そのため、現実空間RSで第1アバターA1に対応する第1ユーザU1と、第2アバターA2に対応する第2ユーザU2とが同じ動作を行ったとしても、第1アバターA1の動作と第2アバターA2の動作(ひいては、環境)とは、異なることになる。その結果、第1ユーザU1が認識する環境と、第2ユーザU2が認識する環境とは、異なることになる。 Therefore, even if the first user U1 corresponding to the first avatar A1 and the second user U2 corresponding to the second avatar A2 perform the same action in the physical space RS, the action of the first avatar A1 and the second avatar The behavior (and thus the environment) of A2 will be different. As a result, the environment recognized by the first user U1 and the environment recognized by the second user U2 are different.

そして、そのように認識する環境が異なる場合、あるユーザが自分以外のユーザの環境を体感したい、又は、あるユーザが自分以外のユーザに自らの環境を体感させたいという要望が生じることがある。 When the environments to be recognized are different in this way, a user may desire to experience the environment of a user other than himself, or a user may desire to allow a user other than himself to experience his own environment.

例えば、本実施形態では、第1アバターA1は、仮想空間VSに配置されている所定のオブジェクト(例えば、図4に示す草等)に対して大きいという第1特性が付与されており、第2アバターA2は、仮想空間VSに配置されている所定のオブジェクトに対して小さいという第2特性が付与されている。 For example, in the present embodiment, the first avatar A1 is given a first property that it is larger than a predetermined object (for example, grass shown in FIG. 4) placed in the virtual space VS. The avatar A2 is given a second property that it is smaller than a predetermined object placed in the virtual space VS.

そのため、第1アバターA1の座標が第2アバターA2の座標の近傍に位置していたとしても、第1アバターA1(ひいては、対応する第1ユーザU1)であれば視認することのできるオブジェクト(例えば、遠くに見える建物のオブジェクトである第1オブジェクトO1)を、第2アバターA2(ひいては、対応する第2ユーザU2)では視認することができないという状況も生じ得る。 Therefore, even if the coordinates of the first avatar A1 are located in the vicinity of the coordinates of the second avatar A2, the object (for example, , the first object O1, which is a distant building object, cannot be visually recognized by the second avatar A2 (and by extension, the corresponding second user U2).

そのような状況が生じた場合、第1アバターA1に対応する第1ユーザU1が、第2ユーザU2が視認している第1オブジェクトO1を、第2ユーザU2と同様に視認したいという要望が生じることがある。 If such a situation occurs, the first user U1 corresponding to the first avatar A1 may desire to view the first object O1 viewed by the second user U2 in the same manner as the second user U2. Sometimes.

そこで、本実施形態のVRシステムS1では、そのような要望が生じた場合に対応するために、以下に説明する処理によって、第1アバターA1に付与されている特性と第2アバターA2に付与されている特性とを一致させる処理を、実行可能に構成されている。 Therefore, in the VR system S1 of the present embodiment, in order to respond to such a request, the characteristics imparted to the first avatar A1 and the characteristics imparted to the second avatar A2 are processed by the processing described below. It is configured to be able to execute a process of matching the characteristics of the

この処理においては、まず、サーバ3のトリガーイベント認識部35は、トリガーイベントを認識したか否かを判断する(図5/STEP200)。 In this process, first, the trigger event recognition unit 35 of the server 3 determines whether or not a trigger event has been recognized (FIG. 5/STEP 200).

具体的には、トリガーイベント認識部35は、図5に示すように、仮想空間VSで、第1ユーザU1に対応する第1アバターA1の動作を認識し、その動作がトリガーイベントとして予め規定された所定の動作に該当するか否を判断する。 Specifically, as shown in FIG. 5, the trigger event recognition unit 35 recognizes the action of the first avatar A1 corresponding to the first user U1 in the virtual space VS, and the action is defined in advance as the trigger event. It is determined whether or not it corresponds to the predetermined operation.

トリガーイベントを認識した場合(STEP200でYESの場合)、トリガーイベント認識部35は、認識されたトリガーイベントが所定のトリガーイベントであるか否かを判断する(図5/STEP201)。 When a trigger event is recognized (YES in STEP 200), the trigger event recognition unit 35 determines whether or not the recognized trigger event is a predetermined trigger event (FIG. 5/STEP 201).

本実施形態では、図6に示すように、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2アバターA2の一方が他方に触れる動作が、所定のトリガーイベントとして設定されている。 In the present embodiment, as shown in FIG. 6, the action of one of the first avatar A1 corresponding to the first user U1 and the second avatar A2 corresponding to the second user U2 touching the other is set as a predetermined trigger event. It is

トリガーイベントが所定のトリガーイベントであった場合(STEP201でYESの場合)、アバター動作制御部32は、第1アバターA1の特性と第2アバターA2の特性を同期させる(図5/STEP202)。 If the trigger event is a predetermined trigger event (YES in STEP201), the avatar action control unit 32 synchronizes the characteristics of the first avatar A1 and the characteristics of the second avatar A2 (FIG. 5/STEP202).

具体的には、第1アバターA1の特性を、第1特性のまま維持し、第2アバターA2の特性を、第2特性から第1アバターA1と同様の第1特性に変更する。 Specifically, the characteristics of the first avatar A1 are maintained as the first characteristics, and the characteristics of the second avatar A2 are changed from the second characteristics to the same first characteristics as the first avatar A1.

本実施形態では、アバターAの特性は、アバターAの形状に連動したものとなっている。そのため、図7に示すように、STEP202の処理が実行されると、第2アバターA2の形状が、ウサギを擬人化した形状から、第1アバターA1と同様にカメを擬人化した形状に変化する。 In this embodiment, the characteristics of the avatar A are linked to the shape of the avatar A. Therefore, as shown in FIG. 7, when the process of STEP 202 is executed, the shape of the second avatar A2 changes from the shape of an anthropomorphic rabbit to the shape of an anthropomorphic turtle like the first avatar A1. .

一方、トリガーイベントが所定のトリガーイベントではなかった場合(STEP201でNOの場合)、アバター動作制御部32は、認識されたトリガーイベントの種類に応じて、第1アバターA1の特性及び第2アバターA2の特性の少なくとも一方を変更する(図5/STEP203)。 On the other hand, if the trigger event is not the predetermined trigger event (NO in STEP 201), the avatar action control unit 32 controls the characteristics of the first avatar A1 and the second avatar A2 according to the type of the recognized trigger event. change at least one of the characteristics of (FIG. 5/STEP 203).

例えば、第1アバターA1又は第2アバターA2がスイッチ型のオブジェクト(不図示)を押すような動作を行うことが他のトリガーイベントとして設定されており、認識されたトリガーイベントがその他のトリガーイベントであった場合には、アバター動作制御部32は、その他のトリガーイベントを発生させたアバターAに、VRシステムS1の使用開始時の特性を改めて付与するといった処理を実行する。 For example, the action of the first avatar A1 or the second avatar A2 pressing a switch-type object (not shown) is set as another trigger event, and the recognized trigger event is the other trigger event. If there is, the avatar action control unit 32 performs a process of once again giving the characteristics at the start of use of the VR system S1 to the avatar A that caused the other trigger event.

トリガーイベントを認識しなかった場合(STEP200でNOの場合)には、それまでの特性を維持し、トリガーイベントを認識した場合(STEP200でYESの場合)であって、アバターの特性を変更する処理(STEP202又はSTEP203の処理)を実行し、そのうえで、サーバ3のアバター動作制御部32は、第1ユーザU1の動作及び第1アバターA1に付与された特性に基づいて、第1アバターA1の動作を決定し、第2ユーザU2の動作及び第2アバターA2に付与された特性に基づいて、第2アバターA2の動作を決定する(図5/STEP204)。 If the trigger event is not recognized (NO in STEP 200), the characteristics up to that point are maintained, and if the trigger event is recognized (YES in STEP 200), processing to change the characteristics of the avatar. (processing of STEP 202 or STEP 203), and then the avatar motion control unit 32 of the server 3 controls the motion of the first avatar A1 based on the motion of the first user U1 and the characteristics given to the first avatar A1. Then, based on the behavior of the second user U2 and the characteristics given to the second avatar A2, the behavior of the second avatar A2 is determined (FIG. 5/STEP 204).

次に、STEP103における処理と同様に、サーバ3のアバター環境決定部33は、第1アバターA1の動作に基づいて、第1アバターA1の環境を決定し、第2アバターA2の動作に基づいて、第2アバターA2の環境を決定する(図5/STEP205)。 Next, similar to the processing in STEP 103, the avatar environment determination unit 33 of the server 3 determines the environment of the first avatar A1 based on the motion of the first avatar A1, and based on the motion of the second avatar A2, The environment of the second avatar A2 is determined (FIG. 5/STEP 205).

このとき、アバターAの特性を同期させる処理が実行されていた場合には、第1アバターA1と第2アバターA2のサイズという特性が一致している。第1アバターA1は、サイズが小さいために視認することができなかったオブジェクトを、第2アバターA2と同様に視認することができるようになっている。 At this time, if the process of synchronizing the characteristics of the avatar A has been executed, the characteristics of the size of the first avatar A1 and the second avatar A2 match. Like the second avatar A2, the first avatar A1 can visually recognize an object that could not be visually recognized due to its small size.

次に、STEP104における処理と同様に、サーバ3のユーザ環境決定部34は、第1ユーザU1に認識させる環境を、第1アバターA1の環境に基づいて決定し、第2ユーザU2に認識させる環境を、第2アバターA2の環境に基づいて決定する(図5/STEP206)。 Next, similar to the processing in STEP 104, the user environment determining unit 34 of the server 3 determines the environment to be recognized by the first user U1 based on the environment of the first avatar A1, and determines the environment to be recognized by the second user U2. is determined based on the environment of the second avatar A2 (FIG. 5/STEP 206).

次に、STEP105における処理と同様に、ユーザUに装着されたHMD4は、決定された環境を出力する(図5/STEP207)。 Next, similarly to the processing in STEP105, the HMD 4 worn by the user U outputs the determined environment (FIG. 5/STEP207).

次に、STEP106における処理と同様に、サーバ3のユーザ動作認識部31は、第1ユーザU1又は第2ユーザU2がなんらかの動作を行ったか否かを判断する(図5/STEP208)。 Next, similarly to the processing in STEP 106, the user action recognition section 31 of the server 3 determines whether or not the first user U1 or the second user U2 has performed some action (FIG. 5/STEP 208).

第1ユーザU1又は第2ユーザU2がなんらかの動作を行った場合(STEP208でYESの場合)、STEP200に戻り、再度、STEP200以降の処理が実行される。 If the first user U1 or the second user U2 performs some action (YES in STEP208), the process returns to STEP200, and the processes after STEP200 are executed again.

一方、第1ユーザU1又は第2ユーザU2がなんらかの動作を行っていなかった場合(STEP208でNOの場合)、STEP107における処理と同様に、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図5/STEP209)。 On the other hand, if the first user U1 or the second user U2 has not performed any action (NO in STEP 208), the server 3 has recognized a signal instructing the end of the process as in the process in STEP 107. It is determined whether or not (FIG. 5/STEP 209).

終了を指示する信号を認識できなかった場合(STEP209でNOの場合)、STEP208に戻り、再度、STEP208以降の処理が実行される。 If the signal instructing the end cannot be recognized (NO in STEP 209), the process returns to STEP 208, and the processes after STEP 208 are executed again.

一方、終了を指示する信号を認識した場合(STEP209でYESの場合)、VRシステムS1は、今回の処理を終了する。 On the other hand, when the signal instructing the end is recognized (YES in STEP209), the VR system S1 ends the current process.

以上説明したように、本実施形態のVRシステムS1では、所定のトリガーイベントが認識される以前には、第1特性を、第1アバターA1に付与し、その第1アバターA1の動作に基づいて、その第1アバターA1の環境を決定するとともに、第1特性とは異なる特性である第2特性を、その第2アバターA2に付与し、その第2アバターA2の動作に基づいて、第2アバターA2の環境を決定する。 As described above, in the VR system S1 of the present embodiment, before a predetermined trigger event is recognized, the first characteristic is given to the first avatar A1, and based on the action of the first avatar A1, , determines the environment of the first avatar A1, gives a second characteristic different from the first characteristic to the second avatar A2, and based on the action of the second avatar A2, Determine A2's environment.

一方、所定のトリガーイベントが認識された以後には、第1特性を、第1アバターA1に付与し、その第1アバターA1の動作に基づいて、その第1アバターA1の環境を決定するとともに、同じく第1特性を、第2アバターA2に付与し、その第2アバターA2の動作に基づいて、その第2アバターA2の環境を決定する。 On the other hand, after the predetermined trigger event is recognized, the first characteristic is given to the first avatar A1, and the environment of the first avatar A1 is determined based on the action of the first avatar A1, Similarly, the first property is given to the second avatar A2, and the environment of the second avatar A2 is determined based on the behavior of the second avatar A2.

これにより、所定のトリガーイベントが認識される以前には、第1ユーザU1に対応する第1アバターA1の特性と第2ユーザU2に対応する第2アバターA2の特性とは、異なるものになっている。 Accordingly, before the predetermined trigger event is recognized, the characteristics of the first avatar A1 corresponding to the first user U1 and the characteristics of the second avatar A2 corresponding to the second user U2 are different. there is

そのため、ユーザUの動作に対応してアバターAが動作した際におけるアバターAの環境は、従来のように、独立したものになる。ひいては、ユーザが体感する環境(本実施形態では、視認できるオブジェクトの種類)も、従来のように、独立したものになる。 Therefore, the environment of the avatar A when the avatar A moves in response to the motion of the user U becomes independent as in the conventional case. As a result, the environment experienced by the user (in this embodiment, the types of objects that can be visually recognized) becomes independent as in the conventional case.

一方、所定のトリガーイベントが認識された以後には、第1ユーザU1に対応する第1アバターA1の特性と第2ユーザU2に対応する第2アバターA2の特性とは、いずれも同じものになる。 On the other hand, after the predetermined trigger event is recognized, the characteristics of the first avatar A1 corresponding to the first user U1 and the characteristics of the second avatar A2 corresponding to the second user U2 are both the same. .

そのため、ユーザUの動作に対応してアバターAが動作した際におけるアバターAの環境は、一致したもの又は同様のものになる。ひいては、ユーザUが体感する環境(本実施形態では、視認できるオブジェクトの種類)も、一致したもの又は同様のものになる。 Therefore, the environment of the avatar A when the avatar A moves in response to the motion of the user U matches or is similar. As a result, the environment experienced by the user U (in this embodiment, the types of visible objects) also match or are similar.

したがって、VRシステムS1によれば、所定のトリガーイベントが認識された以後には、アバターAの環境を同期させる処理が実行されて、第1ユーザU1及び第2ユーザU2に認識させる仮想空間VSの環境が同様のものになるので、それまで異なる環境を体感していた第1ユーザU1及び第2ユーザU2が、同様の環境を体感することができるようになる。 Therefore, according to the VR system S1, after the predetermined trigger event is recognized, the process of synchronizing the environment of the avatar A is executed, and the virtual space VS that is recognized by the first user U1 and the second user U2 is displayed. Since the environments become similar, the first user U1 and the second user U2 who have experienced different environments can now experience similar environments.

[第1実施形態の変形例]
なお、本実施形態では、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2アバターA2の一方が他方に触れる動作が、所定のトリガーイベントとして設定されている。
[Modification of First Embodiment]
Note that, in the present embodiment, an action in which one of the first avatar A1 corresponding to the first user U1 and the second avatar A2 corresponding to the second user U2 touches the other is set as a predetermined trigger event.

これは、第1アバターA1及び第2アバターA2の一方が他方に対して実行する所定の動作を所定のトリガーイベントとして設定すると、一方のアバターAにユーザUは、その動作を実行した結果、他方のアバターAに対応するユーザUの環境を自らも体感することができることを、直感的に理解することができるようになるためである。 This is because when a predetermined action performed by one of the first avatar A1 and the second avatar A2 on the other is set as a predetermined trigger event, the user U on one avatar A performs the action on the other avatar A. This is because the user can intuitively understand that he or she himself can also experience the environment of the user U corresponding to the avatar A of .

しかし、第1発明において、所定のトリガーイベントとなる「所定の動作」とは、このように第1アバター及び第2アバターの一方が他方に触れる動作に限定されるものではなく、第1アバター及び第2アバターの一方が他方を基準として行う何らかの動作であればよい。 However, in the first invention, the "predetermined action" that becomes a predetermined trigger event is not limited to the action of one of the first avatar and the second avatar touching the other. Any action performed by one of the second avatars relative to the other may be acceptable.

例えば、所定の動作とは、一方のアバターが他方のアバターに接触するような動作、一方のアバターが他方のアバターを基準とした所定の範囲内に移動するような動作、一方のアバターが複合空間に存在する仮想空間に存在するオブジェクトを操作する際に、その対象として他方のアバターを選択するような動作(例えば、カメラ型オブジェクトで他方のアバターを撮影するような動作等)等であってもよい。 For example, the predetermined action is an action in which one avatar touches the other avatar, an action in which one avatar moves within a predetermined range relative to the other avatar, and one avatar moves in a complex space. When operating an object that exists in the virtual space that exists in the good.

また、例えば、ユーザに対応するアバターとして、ユーザに認識させる環境を定めるための基準となるアバターの他に、ユーザの動作に対応して動作するものの、その基準とならないゴーストも生成する場合がある。そのような場合には、そのゴーストに対して所定の動作を行った際にも、アバターの特性を同期させる処理を実行するようにしてもよい。 Further, for example, as an avatar corresponding to the user, in addition to the avatar that serves as a reference for determining the environment to be recognized by the user, a ghost that acts in response to the user's action but does not serve as a reference may also be generated. . In such a case, the process of synchronizing the characteristics of the avatar may be executed even when the ghost performs a predetermined action.

さらに、第1発明における所定のトリガーイベントは、必ずしも、第1アバター及び第2アバターの一方のアバターが第1アバター及び第2アバターの他方のアバターに対して実行する所定の動作である必要はない。そのため、例えば、別途設けられたインターフェースを介して、ユーザが特性の変化を指示した場合に、その指示を行ったことを、所定のトリガーイベントとしてもよい。 Furthermore, the predetermined trigger event in the first invention does not necessarily have to be a predetermined action performed by one of the first avatar and the second avatar on the other of the first avatar and the second avatar. . Therefore, for example, when the user gives an instruction to change the characteristics via an interface provided separately, the fact that the instruction is given may be set as the predetermined trigger event.

また、本実施形態では、所定のトリガーイベントが認識された場合に、第2アバターA2の特性を、第1アバターA1に付与された第1特性に同期させるとともに、第2アバターA2の形状を第1アバターA1の形状と同様のものに変更している。これは、本実施形態では、アバターAに付与される特性は、そのアバターAの形状に連動したものとなっているためである。 Further, in the present embodiment, when a predetermined trigger event is recognized, the characteristics of the second avatar A2 are synchronized with the first characteristics given to the first avatar A1, and the shape of the second avatar A2 is changed to the first characteristic. 1 avatar A1 is changed to a shape similar to that of A1. This is because the characteristics given to avatar A are linked to the shape of avatar A in this embodiment.

しかし、第1発明は、所定のトリガーイベントが認識された際に、アバターの特性を同期させるものであればよく、アバターの形状は、必ずしも、特性とともに同期させる必要はない。そのため、所定のトリガーイベントが認識された際に、アバターの機能のみ(例えば、サイズのみ)を、同期させるようにしてもよい。 However, the first invention only needs to synchronize the characteristics of the avatar when a predetermined trigger event is recognized, and the shape of the avatar does not necessarily have to be synchronized with the characteristics. As such, only avatar features (eg, size only) may be synchronized when certain trigger events are recognized.

また、本実施形態では、所定のトリガーイベントが認識された場合に、第2アバターA2の特性を、第1アバターA1に付与された第1特性に同期させている。すなわち、特性を同一のものにしている。 Further, in this embodiment, when a predetermined trigger event is recognized, the characteristics of the second avatar A2 are synchronized with the first characteristics given to the first avatar A1. That is, they have the same characteristics.

しかし、第1発明において、特性を同期させる処理は、そのように第2アバターの特性を変更するものに限定されるものではない。そのため、例えば、第1アバターの特性を、第2アバターに付与された第2特性に同期させるものであってもよい。 However, in the first invention, the process of synchronizing properties is not limited to changing the properties of the second avatar in that way. Therefore, for example, the characteristics of the first avatar may be synchronized with the second characteristics given to the second avatar.

また、第1発明において、特性を同期させる処理は、特性を完全に一致させるような処理に限定されるものではない。そのため、例えば、複数ある特性の一部を同期させる処理であってもよい。具体的には、移動可能速度とサイズのうち、サイズのみを同期させる処理等であってもよい。また、例えば、特性を規定する値を近づける処理であってもよい。具体的には、移動可能速度の値を近づける処理等であってもよい。 In addition, in the first invention, the process of synchronizing the characteristics is not limited to the process of completely matching the characteristics. Therefore, for example, it may be a process of synchronizing some of a plurality of characteristics. Specifically, out of the movable speed and the size, only the size may be synchronized. Alternatively, for example, the process may be a process of approximating values that define characteristics. Specifically, it may be a process of bringing the values of movable velocities close to each other.

さらに、特性を同期させる処理が複数種類ある場合には、それらの処理ごとに対応するトリガーイベントを定めておいてもよい。例えば、第2アバターが第1アバターに右手で触れた場合には、第2アバターの特性を、第1アバターに付与された特性に同期させ、第2アバターが第1アバターに左手で触れた場合には、第1アバターの特性を、第2アバターに付与された特性に同期させるように構成してもよい。 Furthermore, if there are multiple types of processing for synchronizing characteristics, a trigger event corresponding to each processing may be defined. For example, when the second avatar touches the first avatar with the right hand, the characteristics of the second avatar are synchronized with the characteristics given to the first avatar, and when the second avatar touches the first avatar with the left hand, Alternatively, the properties of the first avatar may be synchronized with the properties imparted to the second avatar.

また、上記実施形態では、アバターの特性として、サイズ、移動可能速度、移動可能範囲等を採用しているが、アバターの特性は、そのような構成に限定されるものではなく、ユーザの動作に対する、そのユーザに対応するアバターの動作を規定する特性であればよい。 In the above embodiment, size, movable speed, movable range, etc. are adopted as avatar characteristics, but avatar characteristics are not limited to such configurations, and , the characteristics that define the behavior of the avatar corresponding to the user.

そのため、例えば、アバターの機能として視認可能な可視光線の範囲を規定してもよい。具体的には、一方のアバターが通常の可視光線の波長帯域の光だけを視認可能に設定され、他方のアバターが通常の可視光線の波長帯域の光に加えて赤外線の光を視認可能に設定されていた場合には、それぞれのアバターの環境(例えば、オブジェクトの見え方等)は、異なることになる。 Therefore, for example, a visible light range may be specified as a function of the avatar. Specifically, one avatar is set to be able to see only light in the normal visible light wavelength band, and the other avatar is set to be able to see infrared light in addition to light in the normal visible light wavelength band. If so, each avatar's environment (eg, how objects look, etc.) will be different.

[第2実施形態]
以下、図8~図13を参照して、第2実施形態に係る仮想空間体感システムであるVRシステムS2について説明する。
[Second embodiment]
A VR system S2, which is a virtual space sensation system according to the second embodiment, will be described below with reference to FIGS. 8 to 13. FIG.

なお、本実施形態のVRシステムS2は、アバターに付与される特性が1種類のみである点、及び、生成される仮想空間が複数である点を除き、第1実施形態のVRシステムS1と同様の構成を備えている。そのため、以下の説明においては、第1実施形態のVRシステムS1の構成と同一の構成又は対応する構成については、同一の符号を付すとともに、詳細な説明は省略する。 Note that the VR system S2 of the present embodiment is the same as the VR system S1 of the first embodiment except that only one type of characteristic is given to the avatar and that a plurality of virtual spaces are generated. It has a configuration of Therefore, in the following description, the same reference numerals are given to the same or corresponding configurations as those of the VR system S1 of the first embodiment, and detailed description thereof will be omitted.

[処理部の構成]
図8を用いて、サーバ3の備えている処理部の構成を詳細に説明する。
[Configuration of processing unit]
The configuration of the processing unit included in the server 3 will be described in detail with reference to FIG.

サーバ3は、CPU、RAM、ROM、インターフェース回路等を含む1つ又は複数の電子回路ユニットにより構成されている。サーバ3は、実装されたハードウェア構成又はプログラムにより実現される機能(処理部)として、図8に示すように、仮想環境生成部30と、ユーザ動作認識部31と、アバター動作制御部32と、アバター環境決定部33と、ユーザ環境決定部34と、トリガーイベント認識部35とを備えている。 The server 3 is composed of one or a plurality of electronic circuit units including CPU, RAM, ROM, interface circuits, and the like. As shown in FIG. 8, the server 3 includes a virtual environment generation unit 30, a user action recognition unit 31, and an avatar action control unit 32 as functions (processing units) realized by the implemented hardware configuration or programs. , an avatar environment determination unit 33 , a user environment determination unit 34 , and a trigger event recognition unit 35 .

仮想環境生成部30は、仮想空間生成部30aと、アバター生成部30bとを有している。 The virtual environment generator 30 has a virtual space generator 30a and an avatar generator 30b.

仮想空間生成部30aは、ユーザUが存在する現実空間RS(図1参照)に対応する第1仮想空間VS1、及び、第1仮想空間VS1とは独立し、現実空間RSに対応する第2仮想空間VS2を生成する。 The virtual space generator 30a generates a first virtual space VS1 corresponding to the physical space RS (see FIG. 1) in which the user U exists, and a second virtual space VS1 independent of the first virtual space VS1 corresponding to the physical space RS. Create space VS2.

具体的には、仮想空間生成部30aは、第1仮想空間VS1及び第2仮想空間VS2(以下、総称する場合は「仮想空間VS」という。)の背景及び仮想空間VSに存在するオブジェクトとなる画像、及び、それらの画像に関連する音を生成する。 Specifically, the virtual space generation unit 30a becomes the background of the first virtual space VS1 and the second virtual space VS2 (hereinafter collectively referred to as "virtual space VS") and objects existing in the virtual space VS. Generate images and sounds associated with those images.

アバター生成部30bは、第1仮想空間VS1に、第1ユーザU1に対応する第1アバターA1、及び、第2ユーザU2に対応する第2ゴーストG2を生成し、第2仮想空間VS2に、第2ユーザU2に対応する第2アバターA2、及び、第1ユーザU1に対応する第1ゴーストG1を生成する(図9等参照)。 The avatar generation unit 30b generates a first avatar A1 corresponding to the first user U1 and a second ghost G2 corresponding to the second user U2 in the first virtual space VS1, and generates a second ghost G2 corresponding to the second user U2 in the second virtual space VS2. A second avatar A2 corresponding to the second user U2 and a first ghost G1 corresponding to the first user U1 are generated (see FIG. 9, etc.).

ここで、「ゴースト」とは、ユーザに対応して動作するアバターの1つであり、その環境が対応するユーザに認識させる環境に影響を与えないものである。本実施形態では、ゴーストGは、そのゴーストGに対応するユーザU以外のユーザUに対して、対応するユーザUの存在、動作等を示すために用いられる。 Here, a "ghost" is one of the avatars that act corresponding to the user, and does not affect the environment recognized by the corresponding user. In this embodiment, the ghost G is used to indicate the existence, actions, etc. of the corresponding user U to the users U other than the user U corresponding to the ghost G.

第1アバターA1及び第2アバターA2(以下、総称する場合は「アバターA」という。)、並びに、第1ゴーストG1及び第2ゴーストG2(以下、総称する場合は「ゴーストG」という。)は、対応するユーザUの現実空間RSにおける動作に対応して、第1仮想空間VS1又は第2仮想空間VS2において動作する。 The first avatar A1 and second avatar A2 (hereinafter collectively referred to as "avatar A"), and the first ghost G1 and second ghost G2 (hereinafter collectively referred to as "ghost G") are , operate in the first virtual space VS1 or the second virtual space VS2 corresponding to the action of the corresponding user U in the physical space RS.

第1アバターA1及び第2アバターA2の存在する仮想空間VSは、VRシステムS2の使用中に変更される場合がある。例えば、後述する所定のトリガーイベントが認識された際に変更される。また、その変更に伴って、第1ゴーストG1及び第2ゴーストG2は、消去される場合がある。 The virtual space VS in which the first avatar A1 and the second avatar A2 exist may change during the use of the VR system S2. For example, it is changed when a predetermined trigger event, which will be described later, is recognized. Also, the first ghost G1 and the second ghost G2 may be erased along with the change.

なお、本実施形態におけるゴーストGの画像には、そのゴーストGがどのユーザUに対応しているかを示す情報が付加されている。これは、ユーザUが、そのゴーストGが自分以外のどのユーザに対応するものであるかを、容易に把握することができるようにするためである。 Information indicating which user U the ghost G corresponds to is added to the image of the ghost G in this embodiment. This is so that the user U can easily grasp which user other than himself/herself the ghost G corresponds to.

具体的には、対応するアバターAの形状を半透明にしたものをゴーストGの形状として採用することによって、そのゴーストGがどのアバターAに対応しているかという情報(ひいては、どのユーザUに対応しているかという情報)が、間接的に示されている。 Specifically, by adopting a translucent shape of the corresponding avatar A as the shape of the ghost G, information as to which avatar A the ghost G corresponds to (and furthermore which user U corresponds to information on whether the

ただし、「どのユーザに対応しているかを示す情報」は、そのような間接的な情報に限定されるものではない。そのため、例えば、常時又はユーザの要求に応じて表示されるメッセージといった直接的な情報であってもよい。 However, the "information indicating which user the service corresponds to" is not limited to such indirect information. As such, it may be direct information such as, for example, a message that is displayed all the time or at the user's request.

アバター動作制御部32は、アバター生成部30bによって生成されたアバターAに、特性を付与する。本実施形態では、特性の付与は、VRシステムS2の使用開始時(例えば、使用するアバターAの種類の選択時等)に実行される。 The avatar action control unit 32 gives characteristics to the avatar A generated by the avatar generation unit 30b. In this embodiment, the properties are assigned when the use of the VR system S2 is started (for example, when the type of avatar A to be used is selected).

また、アバター動作制御部32は、ユーザ姿勢認識部31aによって認識されたユーザUの現実空間RSにおける姿勢、ユーザ座標認識部31bによって認識されたユーザUの現実空間RSにおける座標、及び、付与された特性に基づいて、そのユーザUに対応するアバターA及びゴーストGの仮想空間VSにおける動作(例えば、座標の移動、向きを含む姿勢の変化等)を決定する。 The avatar motion control unit 32 also recognizes the posture of the user U in the physical space RS recognized by the user posture recognition unit 31a, the coordinates of the user U in the physical space RS recognized by the user coordinate recognition unit 31b, and the assigned Based on the characteristics, the actions of the avatar A and the ghost G corresponding to the user U in the virtual space VS (for example, movement of coordinates, change of posture including orientation, etc.) are determined.

なお、本実施形態のVRシステムS2では採用していないが、仮想空間特有の特性が設定されている場合には、アバター動作制御部は、ユーザの動作及びアバターの特性の他に、その仮想空間の特性を参照するように構成されていてもよい。 Although not adopted in the VR system S2 of the present embodiment, when characteristics unique to the virtual space are set, the avatar motion control unit controls the user's motion and the characteristics of the avatar as well as the virtual space. may be configured to refer to the characteristics of

例えば、仮想空間が宇宙空間を模したものである場合には、その仮想空間におけるアバターに対する重力の影響と仮想空間におけるユーザに対する重力の影響とが異なるように、その仮想空間の特性が設定される場合がある。そのような場合には、ユーザの動作をアバターに反映させる際に、その仮想空間の特性が反映されることになる。 For example, if the virtual space imitates outer space, the characteristics of the virtual space are set so that the effect of gravity on the avatar in the virtual space is different from the effect of gravity on the user in the virtual space. Sometimes. In such a case, when the user's motion is reflected in the avatar, the characteristics of the virtual space are reflected.

アバター環境決定部33は、アバターAの動作の結果(例えば、その時点における座標、姿勢等)に基づいて、仮想空間VSにおけるアバターAの環境を決定する。 The avatar environment determining unit 33 determines the environment of the avatar A in the virtual space VS based on the result of the action of the avatar A (for example, coordinates, posture, etc. at that time).

ここで、本実施形態におけるアバターの「環境」とは、仮想空間において、アバターに対して影響を与えるものを指す。例えば、アバターの環境とは、存在している仮想空間そのものの種類(地上であるか水中であるか)等である。 Here, the avatar's "environment" in the present embodiment refers to what affects the avatar in the virtual space. For example, the avatar's environment is the type of existing virtual space itself (whether it is on the ground or in the water).

[実行される処理]
次に、図8~図13を参照して、VRシステムS2を用いてユーザUに仮想空間VSを体感させる際に、VRシステムS2の実行する処理について説明する。
[Process to be executed]
Next, with reference to FIGS. 8 to 13, processing executed by the VR system S2 when allowing the user U to experience the virtual space VS using the VR system S2 will be described.

[通常の使用状態における処理]
まず、図8~図10を参照して、VRシステムS2が使用開始時、及び、通常の使用状態(すなわち、後述する所定のトリガーイベントを認識していない状態)で実行する処理について説明する。
[Processing during normal use]
First, with reference to FIGS. 8 to 10, the processing executed by the VR system S2 at the start of use and in normal use (that is, in a state in which a predetermined trigger event described later is not recognized) will be described.

この処理においては、まず、サーバ3の仮想環境生成部30は、第1仮想空間VS1及び第2仮想空間VS2、第1アバターA1及び第2アバターA2、並びに、第1ゴーストG1及び第2ゴーストG2を生成する(図9/STEP300)。 In this process, first, the virtual environment generation unit 30 of the server 3 generates a first virtual space VS1 and a second virtual space VS2, a first avatar A1 and a second avatar A2, and a first ghost G1 and a second ghost G2. is generated (FIG. 9/STEP 300).

具体的には、図10に示すように、仮想環境生成部30の仮想空間生成部30aは、仮想空間VSの背景となる画像及び仮想空間VSに存在する各種オブジェクトを生成する。本実施形態では、第1仮想空間VS1が海を模した仮想空間となるように、背景となる画像及びオブジェクトが生成され、第2仮想空間VS2が山を模した仮想空間となるように、背景となる画像及びオブジェクトが生成される。 Specifically, as shown in FIG. 10, the virtual space generation unit 30a of the virtual environment generation unit 30 generates an image serving as a background of the virtual space VS and various objects existing in the virtual space VS. In this embodiment, a background image and objects are generated so that the first virtual space VS1 is a virtual space imitating the sea, and a background image and objects are generated so that the second virtual space VS2 is a virtual space imitating mountains. images and objects are generated.

また、仮想環境生成部30のアバター生成部30bは、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2ゴーストG2を第1仮想空間VS1に生成し、第2ユーザU2に対応する第2アバターA2及び第1ユーザU2に対応する第1ゴーストG1を第2仮想空間VS2に生成する。 In addition, the avatar generation unit 30b of the virtual environment generation unit 30 generates a first avatar A1 corresponding to the first user U1 and a second ghost G2 corresponding to the second user U2 in the first virtual space VS1. A second avatar A2 corresponding to U2 and a first ghost G1 corresponding to the first user U2 are generated in the second virtual space VS2.

次に、サーバ3のアバター動作制御部32は、第1アバターA1に第1特性を付与するとともに、第2アバターA2に第2特性を付与する(図9/STEP301)。 Next, the avatar action control section 32 of the server 3 gives the first property to the first avatar A1 and gives the second property to the second avatar A2 (FIG. 9/STEP 301).

本実施形態では、第1アバターA1に付与される特性と第2アバターA2に付与される特性とは、同一のものであり、その後に変更されないものとなっている。ただし、第1アバターA1及び第2アバターA2に付与される特性は、第1実施形態のように、互いに異なるものであり、且つ、その後変更され得るものであってもよい。 In this embodiment, the characteristics imparted to the first avatar A1 and the characteristics imparted to the second avatar A2 are the same, and are not changed thereafter. However, the characteristics given to the first avatar A1 and the second avatar A2 may be different from each other as in the first embodiment and may be changed thereafter.

次に、サーバ3のアバター動作制御部32は、第1ユーザU1の動作及び第1アバターA1に付与された特性に基づいて、第1アバターA1及び第1ゴーストG1の動作を決定し、第2ユーザU2の動作及び第2アバターA2に付与された特性に基づいて、第2アバターA2及び第2ゴーストG2の動作を決定する(図9/STEP302)。 Next, the avatar motion control unit 32 of the server 3 determines the motion of the first avatar A1 and the first ghost G1 based on the motion of the first user U1 and the characteristics given to the first avatar A1, The actions of the second avatar A2 and the second ghost G2 are determined based on the action of the user U2 and the characteristics given to the second avatar A2 (FIG. 9/STEP302).

次に、サーバ3のアバター環境決定部33は、第1アバターA1の動作及び第1仮想空間VS1の状況に基づいて、第1アバターA1の環境を決定し、第2アバターA2の動作及び第2仮想空間VS2の状況に基づいて、第2アバターA2の環境を決定する(図9/STEP303)。 Next, the avatar environment determination unit 33 of the server 3 determines the environment of the first avatar A1 based on the motion of the first avatar A1 and the situation of the first virtual space VS1, and the motion of the second avatar A2 and the second virtual space VS1. The environment of the second avatar A2 is determined based on the situation of the virtual space VS2 (FIG. 9/STEP303).

次に、サーバ3のユーザ環境決定部34は、第1ユーザU1に認識させる環境を、第1アバターA1の環境に基づいて決定し、第2ユーザU2に認識させる環境を、第2アバターA2の環境に基づいて決定する(図9/STEP304)。 Next, the user environment determination unit 34 of the server 3 determines the environment to be recognized by the first user U1 based on the environment of the first avatar A1, and determines the environment to be recognized by the second user U2 as the environment of the second avatar A2. It is determined based on the environment (FIG. 9/STEP 304).

具体的には、ユーザ環境決定部34は、第1ユーザU1に認識させる環境として、第1アバターA1の環境を表す第1仮想空間VS1の画像及び音を決定し、第2ユーザU2に認識させる環境として、第2アバターA2の環境を表す第2仮想空間VS2の画像及び音を決定する。 Specifically, the user environment determination unit 34 determines the image and sound of the first virtual space VS1 representing the environment of the first avatar A1 as the environment to be recognized by the first user U1, and makes the second user U2 recognize the environment. As the environment, the image and sound of the second virtual space VS2 representing the environment of the second avatar A2 are determined.

次に、ユーザUに装着されたHMD4は、決定された環境を出力する(図9/STEP305)。 Next, the HMD 4 worn by the user U outputs the determined environment (FIG. 9/STEP 305).

具体的には、HMD4は、HMD4に搭載されているモニタ40に決定された画像を表示させ、HMD4に搭載されているスピーカ41に決定された音を発生させる。 Specifically, the HMD 4 causes the monitor 40 mounted on the HMD 4 to display the determined image, and the speaker 41 mounted on the HMD 4 to generate the determined sound.

次に、サーバ3のユーザ動作認識部31は、第1ユーザU1又は第2ユーザU2がなんらかの動作を行ったか否かを判断する(図9/STEP306)。 Next, the user action recognition unit 31 of the server 3 determines whether or not the first user U1 or the second user U2 has performed some action (FIG. 9/STEP 306).

第1ユーザU1又は第2ユーザU2がなんらかの動作を行った場合(STEP306でYESの場合)、STEP302に戻り、再度、STEP302以降の処理が実行される。 If the first user U1 or the second user U2 performs some action (YES in STEP306), the process returns to STEP302, and the processes after STEP302 are executed again.

一方、第1ユーザU1又は第2ユーザU2がなんらかの動作を行っていなかった場合(STEP306でNOの場合)、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図9/STEP307)。 On the other hand, if the first user U1 or the second user U2 has not performed any action (NO in STEP 306), the server 3 determines whether or not it has recognized a signal instructing the end of the process (Fig. 9/ STEP 307).

終了を指示する信号を認識できなかった場合(STEP307でNOの場合)、STEP306に戻り、再度、STEP306以降の処理が実行される。 If the signal instructing the end cannot be recognized (NO in STEP 307), the process returns to STEP 306, and the processes after STEP 306 are executed again.

一方、終了を指示する信号を認識した場合(STEP307でYESの場合)、VRシステムS2は、今回の処理を終了する。 On the other hand, if the signal instructing the end is recognized (YES in STEP307), the VR system S2 ends the current process.

以上の処理により、図10に示すように、第1仮想空間VS1では、第1ユーザU1に対応する第1アバターA1及び第2ユーザU2に対応する第2ゴーストG2を含む複数のオブジェクトが設置され、第2仮想空間VS2では、第2ユーザU2に対応する第2アバターA2及び第1ユーザU1に対応する第1ゴーストG1を含む複数のオブジェクトが設置される。 By the above processing, as shown in FIG. 10, a plurality of objects including a first avatar A1 corresponding to the first user U1 and a second ghost G2 corresponding to the second user U2 are installed in the first virtual space VS1. , in the second virtual space VS2, a plurality of objects including a second avatar A2 corresponding to the second user U2 and a first ghost G1 corresponding to the first user U1 are installed.

そして、第1ユーザU1及び第2ユーザU2は、それぞれが装着したHMD4で表示される画像及び発生される音によって、それぞれに対応する第1アバターA1及び第2アバターA2を介して、自身が第1仮想空間VS1又は第2仮想空間VS2に存在し、自由に動作することができると認識するようになる。 Then, the first user U1 and the second user U2, through the corresponding first avatar A1 and second avatar A2, respectively, by the image displayed and the sound generated by the HMD 4 worn by the first user U1 and the second user U2, become the second user. It exists in the first virtual space VS1 or the second virtual space VS2 and recognizes that it can move freely.

なお、このとき、第1ユーザU1及び第2ユーザU2の一方は、第1ユーザU1及び第2ユーザU2の他方とメッセージの送信等を介して互いにコミュニケーション可能な状態となっている。これにより、第1ユーザU1及び第2ユーザU2とは、存在している仮想空間VSは異なるものの、同時にVRシステムS2を使用していることを、互いに認識している状態となっている。 At this time, one of the first user U1 and the second user U2 can communicate with the other of the first user U1 and the second user U2 through message transmission or the like. As a result, the first user U1 and the second user U2 are mutually aware that they are using the VR system S2 at the same time, although they are in different virtual spaces VS.

[仮想空間を同期させる際及びそれ以降における処理]
次に、図8、図11~図13を参照して、仮想空間VSを同期させる際及びそれ以後において実行する処理について説明する。
[Processing when synchronizing virtual space and thereafter]
Next, with reference to FIGS. 8 and 11 to 13, processing to be executed when and after synchronizing the virtual space VS will be described.

まず、この処理の具体的な説明に先立ち、この処理が実行される背景について説明する。 First, prior to a specific description of this process, the background of the execution of this process will be described.

前述のように、本実施形態では、VRシステムS2の使用を開始した段階では、第1アバターA1は、第1仮想空間VS1に存在しており、第2アバターA2は、第2仮想空間VS2に存在している。 As described above, in this embodiment, when the use of the VR system S2 is started, the first avatar A1 exists in the first virtual space VS1, and the second avatar A2 exists in the second virtual space VS2. Existing.

そのようにアバターAごとに存在している仮想空間VSが異なる場合、例えば、ユーザUがコミュニケーション(具体的には、空間の種別を超えての会話等)を行った際等に、第1ユーザU1及び第2ユーザU2の一方が他方の環境を体感したい、又は、一方が他方に自らの環境を体感させたいという要望が生じることがある。 When the virtual space VS existing for each avatar A is different, for example, when the user U communicates (specifically, a conversation beyond the type of space), the first user A desire may arise for one of U1 and second user U2 to experience the environment of the other, or for one to allow the other to experience its own environment.

例えば、本実施形態では、第1ユーザU1が、第1アバターA1を介して、第1仮想空間VS1にのみ存在しているオブジェクト(例えば、海を泳いでいるイルカのオブジェクトである第2オブジェクトO2)を視認している場合であっても、第2ユーザU2は、そのオブジェクトを視認することはできないという状況が生じ得る。 For example, in the present embodiment, the first user U1, through the first avatar A1, can create an object existing only in the first virtual space VS1 (for example, the second object O2, which is a dolphin swimming in the sea). ), the second user U2 may not be able to see the object.

そのような状況が生じた場合、第1ユーザU1が第2ユーザU2に対して、メッセージ機能等によって、その第2オブジェクトO2の存在を知らせた結果、第2ユーザU2が、第1ユーザU1が視認しているオブジェクトを、第1ユーザU1と同様に視認したいという要望が生じることがある。 If such a situation occurs, the first user U1 informs the second user U2 of the existence of the second object O2 by using a message function or the like. A desire to visually recognize the visually recognizing object in the same way as the first user U1 may arise.

そこで、本実施形態のVRシステムS2では、そのような要望が生じた場合に対応するために、以下に説明する処理によって、第1アバターA1の存在している第1仮想空間VS1と第2アバターA2の存在している第2仮想空間VS2とを同期させる処理を、実行可能に構成されている。 Therefore, in the VR system S2 of the present embodiment, in order to respond to such a request, the first virtual space VS1 in which the first avatar A1 exists and the second avatar are created by the processing described below. It is configured to be able to execute a process of synchronizing with the second virtual space VS2 in which A2 exists.

この処理においては、まず、サーバ3のトリガーイベント認識部35は、所定のトリガーイベントを認識したか否かを判断する(図11/STEP400)。 In this process, first, the trigger event recognition section 35 of the server 3 determines whether or not a predetermined trigger event has been recognized (FIG. 11/STEP 400).

具体的には、トリガーイベント認識部35は、仮想空間VSで、ユーザUに対応するアバターAの動作を認識し、その動作が所定のトリガーイベントとして予め規定された所定の動作に該当するか否を判断する。本実施形態では、図12に示すように、アバターAがゴーストGに触れる動作が、所定のトリガーイベントとして設定されている。 Specifically, the trigger event recognition unit 35 recognizes the motion of the avatar A corresponding to the user U in the virtual space VS, and determines whether or not the motion corresponds to a predetermined motion defined in advance as a predetermined trigger event. to judge. In this embodiment, as shown in FIG. 12, the action of the avatar A touching the ghost G is set as a predetermined trigger event.

所定のトリガーイベントを認識した場合(STEP400でYESの場合)、サーバ3の仮想環境生成部30のアバター生成部30bは、第1アバターA1の存在している第1仮想空間VS1と第2アバターA2が存在している第2仮想空間VS2とを同期させる(図11/STEP401)。 When a predetermined trigger event is recognized (YES in STEP 400), the avatar generation unit 30b of the virtual environment generation unit 30 of the server 3 generates the first virtual space VS1 in which the first avatar A1 exists and the second avatar A2. is synchronized with the second virtual space VS2 in which is present (FIG. 11/STEP 401).

具体的には、まず、アバター生成部30bは、第1仮想空間VS1において、第2ゴーストG2を消去するとともに、第2アバターA2を生成する。次に、アバター生成部30bは、第2仮想空間VS2において、第2アバターA2及び第1ゴーストG1を消去する。これにより、図13に示すように、第1アバターA1及び第2アバターA2の両方が、第1仮想空間VS1に存在している状態となる。 Specifically, first, the avatar generator 30b erases the second ghost G2 and generates the second avatar A2 in the first virtual space VS1. Next, the avatar generator 30b erases the second avatar A2 and the first ghost G1 in the second virtual space VS2. As a result, as shown in FIG. 13, both the first avatar A1 and the second avatar A2 are present in the first virtual space VS1.

一方で、第2仮想空間VS2は、同期させる処理の実行後においては、アバターA及びゴーストGが存在しない状態となっている。これは、本実施形態のVRシステムS2では採用していないが、所定のトリガーイベント以外の他のトリガーイベントが認識された場合に(例えば、アバターAがスイッチ型のオブジェクトを押した場合に)、第2仮想空間VS2に、再度アバターAを生成する場合があるためである。 On the other hand, the second virtual space VS2 is in a state where the avatar A and the ghost G do not exist after the synchronizing process is executed. Although this is not adopted in the VR system S2 of this embodiment, when a trigger event other than a predetermined trigger event is recognized (for example, when avatar A presses a switch-type object), This is because the avatar A may be generated again in the second virtual space VS2.

なお、本実施形態のVRシステムS2では採用していないが、第2仮想空間VS2の環境を、第1仮想空間VS1の環境に変化させることによって、第1仮想空間VS1と第2仮想空間VS2とを同期させてもよい。その場合、第1仮想空間VS1において第2アバターA2を生成する処理及び第2ゴーストG2を消去する処理、並びに、第2仮想空間VS2において第1アバターA1を生成する処理及び第1ゴーストG1を消去する処理は、実行してもよいし、実行しなくてもよい。 Although not adopted in the VR system S2 of this embodiment, by changing the environment of the second virtual space VS2 to the environment of the first virtual space VS1, the first virtual space VS1 and the second virtual space VS2 can be synchronized. In that case, the process of generating the second avatar A2 and the process of erasing the second ghost G2 in the first virtual space VS1, and the process of generating the first avatar A1 and erasing the first ghost G1 in the second virtual space VS2. The process may or may not be performed.

仮想空間VSを同期させる処理(STEP401の処理)を実行した後には、サーバ3のアバター動作制御部32は、第1ユーザU1の動作及び第1アバターA1に付与された特性に基づいて、第1アバターA1の動作を決定し、第2ユーザU2の動作及び第2アバターA2に付与された特性に基づいて、第2アバターA2の動作を決定する(図11/STEP402)。 After executing the process of synchronizing the virtual space VS (the process of STEP 401), the avatar action control unit 32 of the server 3 performs the first The action of the avatar A1 is determined, and the action of the second avatar A2 is determined based on the action of the second user U2 and the characteristics given to the second avatar A2 (FIG. 11/STEP 402).

次に、サーバ3のアバター環境決定部33は、第1アバターA1の動作及び第1仮想空間VS1の状況に基づいて、第1アバターA1の環境を決定し、第2アバターA2の動作及び第1仮想空間VS1の状況に基づいて、第2アバターA2の環境を決定する(図11/STEP403)。 Next, the avatar environment determination unit 33 of the server 3 determines the environment of the first avatar A1 based on the motion of the first avatar A1 and the situation of the first virtual space VS1, and the motion of the second avatar A2 and the first virtual space VS1. The environment of the second avatar A2 is determined based on the situation of the virtual space VS1 (FIG. 11/STEP 403).

一方、所定のトリガーイベントを認識しなかった場合(STEP400でNOの場合)、STEP302における処理と同様に、サーバ3のアバター動作制御部32は、第1ユーザU1の動作及び第1アバターA1に付与された特性に基づいて、第1アバターA1及び第1ゴーストG1の動作を決定し、第2ユーザU2の動作及び第2アバターA2に付与された特性に基づいて、第2アバターA2及び第2ゴーストG2の動作を決定する(図11/STEP404)。 On the other hand, if the predetermined trigger event is not recognized (NO in STEP400), similar to the process in STEP302, the avatar action control unit 32 of the server 3 applies the action of the first user U1 and the first avatar A1. Based on the characteristics given, the behavior of the first avatar A1 and the first ghost G1 is determined, and based on the behavior of the second user U2 and the characteristics given to the second avatar A2, the second avatar A2 and the second ghost Determine the operation of G2 (FIG. 11/STEP 404).

次に、サーバ3のアバター環境決定部33は、第1アバターA1の動作及び第1仮想空間VS1の状況に基づいて、第1アバターA1の環境を決定し、第2アバターA2の動作及び第2仮想空間VS2の状況に基づいて、第2アバターA2の環境を決定する(図11/STEP405)。 Next, the avatar environment determination unit 33 of the server 3 determines the environment of the first avatar A1 based on the motion of the first avatar A1 and the situation of the first virtual space VS1, and the motion of the second avatar A2 and the second virtual space VS1. The environment of the second avatar A2 is determined based on the situation of the virtual space VS2 (FIG. 11/STEP405).

アバターAの環境を決定する処理(STEP403の処理、又は、STEP405の処理)を実行した後には、サーバ3のユーザ環境決定部34は、第1ユーザU1に認識させる環境を、第1アバターA1の環境に基づいて決定し、第2ユーザU2に認識させる環境を、第2アバターA2の環境に基づいて決定する(図11/STEP406)。 After executing the process of determining the environment of avatar A (the process of STEP 403 or the process of STEP 405), the user environment determination unit 34 of the server 3 determines the environment to be recognized by the first user U1 as the environment of the first avatar A1. The environment is determined based on the environment, and the environment to be recognized by the second user U2 is determined based on the environment of the second avatar A2 (FIG. 11/STEP 406).

具体的には、ユーザ環境決定部34は、第1ユーザU1に認識させる環境として、第1アバターA1の環境を表す第1仮想空間VS1の画像及び音を決定し、第2ユーザU2に認識させる環境として、第2アバターA2の環境を表す第1仮想空間VS1の画像及び音、又は、第2仮想空間VS2の画像又は音を決定する。 Specifically, the user environment determination unit 34 determines the image and sound of the first virtual space VS1 representing the environment of the first avatar A1 as the environment to be recognized by the first user U1, and makes the second user U2 recognize the environment. As the environment, the image and sound of the first virtual space VS1 representing the environment of the second avatar A2, or the image or sound of the second virtual space VS2 is determined.

次に、ユーザUに装着されたHMD4は、STEP305における処理と同様に、決定された環境を出力する(図11/STEP407)。 Next, the HMD 4 worn by the user U outputs the determined environment in the same manner as the process in STEP305 (FIG. 11/STEP407).

次に、サーバ3のユーザ動作認識部31は、第1ユーザU1又は第2ユーザU2がなんらかの動作を行ったか否かを判断する(図11/STEP408)。 Next, the user action recognition unit 31 of the server 3 determines whether or not the first user U1 or the second user U2 has performed some action (FIG. 11/STEP 408).

第1ユーザU1又は第2ユーザU2がなんらかの動作を行った場合(STEP408でYESの場合)、トリガーイベント認識部35は、第1仮想空間VS1と第2仮想空間VS2とを同期させる処理(STEP401の処理))が実行済みであるか否かを判断する(図11/STEP409)。 If the first user U1 or the second user U2 performs some action (YES in STEP408), the trigger event recognition unit 35 performs the process of synchronizing the first virtual space VS1 and the second virtual space VS2 (STEP401 process)) has been executed (FIG. 11/STEP 409).

具体的には、トリガーイベント認識部35は、第1仮想空間VS1と第2仮想空間VS2とを同期させる処理の実行のキーとなる所定のトリガーイベントを認識したことが有るか否かに基づいて、その処理が実行済みであるか否かを判断する。 Specifically, the trigger event recognizing unit 35 determines based on whether or not a predetermined trigger event serving as a key to executing the process of synchronizing the first virtual space VS1 and the second virtual space VS2 has been recognized. , to determine whether the process has been executed.

同期させる処理が実行済みでなかった場合(STEP409でNOの場合)、STEP400に戻り、再度、STEP400以降の処理が実行される。 If the synchronization process has not been executed (NO in STEP409), the process returns to STEP400, and the processes after STEP400 are executed again.

一方、同期させる処理が実行済みであった場合(STEP409でYESの場合)、STEP402に戻り、再度、STEP402以降の処理が実行される。 On the other hand, if the synchronizing process has been executed (YES in STEP409), the process returns to STEP402, and the processes after STEP402 are executed again.

一方、第1ユーザU1又は第2ユーザU2がなんらかの動作を行っていなかった場合(STEP408でNOの場合)、サーバ3は、処理の終了を指示する信号を認識したか否かを判断する(図11/STEP410)。 On the other hand, if the first user U1 or the second user U2 has not performed any action (NO in STEP 408), the server 3 determines whether or not it has recognized a signal instructing the end of the process (Fig. 11/STEP 410).

終了を指示する信号を認識できなかった場合(STEP410でNOの場合)、STEP408に戻り、再度、STEP408以降の処理が実行される。 If the signal instructing the end cannot be recognized (NO in STEP 410), the process returns to STEP 408, and the processes after STEP 408 are executed again.

一方、終了を指示する信号を認識した場合(STEP410でYESの場合)、VRシステムS2は、今回の処理を終了する。 On the other hand, when the signal instructing the end is recognized (YES in STEP410), the VR system S2 ends the current process.

以上説明したように、本実施形態のVRシステムS2では、所定のトリガーイベントが認識される以前には、第1アバターA1を第1仮想空間VS1に生成して、第1アバターA1の環境を決定するとともに、第2アバターA2を第2仮想空間VS2に生成して、第2アバターA2の環境を決定する。 As described above, in the VR system S2 of the present embodiment, before a predetermined trigger event is recognized, the first avatar A1 is generated in the first virtual space VS1, and the environment of the first avatar A1 is determined. At the same time, the second avatar A2 is generated in the second virtual space VS2, and the environment of the second avatar A2 is determined.

一方で、所定のトリガーイベントが認識された以後には、第1アバターA1及び第2アバターA2を第1仮想空間VS1に生成して、第1アバターA1及び第2アバターA2の環境を決定する。 On the other hand, after a predetermined trigger event is recognized, the first avatar A1 and the second avatar A2 are generated in the first virtual space VS1 to determine the environment of the first avatar A1 and the second avatar A2.

これにより、所定のトリガーイベントが認識される以前には、第1ユーザU1に対応する第1アバターA1の存在する仮想空間(例えば、本実施形態における第1仮想空間VS1)と、第2ユーザU2に対応する第2アバターA2の存在する仮想空間(例えば、本実施形態における第2仮想空間VS2)とは、独立したものになっている。そのため、アバターAの環境は、従来のように、独立したものになる。ひいては、ユーザUが体感する環境も、従来のように、独立したものになる。 As a result, before the predetermined trigger event is recognized, the virtual space in which the first avatar A1 corresponding to the first user U1 exists (for example, the first virtual space VS1 in this embodiment) and the second user U2 is independent of the virtual space (for example, the second virtual space VS2 in this embodiment) in which the second avatar A2 corresponding to . Therefore, the environment of Avatar A becomes independent as before. As a result, the environment experienced by the user U becomes independent as in the conventional case.

一方、所定のトリガーイベントが認識された以後には、第1ユーザU1に対応する第1アバターA1の存在する仮想空間と第2ユーザU2に対応する第2アバターA1の存在する仮想空間とは、同一の仮想空間(例えば、本実施形態における第1仮想空間VS1)になる。そのため、アバターAの環境は、一致したもの又は同様のものになる。ひいては、ユーザUが体感する環境も、一致したもの又は同様のものになる。 On the other hand, after the predetermined trigger event is recognized, the virtual space in which the first avatar A1 corresponding to the first user U1 exists and the virtual space in which the second avatar A1 corresponding to the second user U2 exists are: It becomes the same virtual space (for example, the first virtual space VS1 in this embodiment). Therefore, Avatar A's environment will match or be similar. As a result, the environment experienced by the user U also matches or is similar.

したがって、VRシステムS2によれば、所定のトリガーイベントが認識された以後には、アバターAの環境を同期させる処理が実行されて、第1ユーザU1及び第2ユーザU2に認識させる仮想空間VSの環境が同様のものになるので、それまで異なる環境を体感していた第1ユーザU1及び第2ユーザU2が、同様の環境を体感することができるようになる。 Therefore, according to the VR system S2, after the predetermined trigger event is recognized, the process of synchronizing the environment of the avatar A is executed, and the virtual space VS recognized by the first user U1 and the second user U2 is displayed. Since the environments become similar, the first user U1 and the second user U2 who have experienced different environments can now experience similar environments.

[第2実施形態の変形例]
なお、本実施形態では、アバターAがゴーストGに触れる動作が、所定のトリガーイベントとして設定されている。
[Modification of Second Embodiment]
Note that, in the present embodiment, the action of the avatar A touching the ghost G is set as a predetermined trigger event.

これは、アバターAがゴーストGに対して実行する所定の動作を所定のトリガーイベントとして設定すると、そのアバターAに対応するユーザUは、その動作を実行した結果、ゴーストGに対応するユーザUの環境を自らも体感することができることを、直感的に理解することができるようになるためである。 This is because when a predetermined action performed by avatar A on ghost G is set as a predetermined trigger event, user U corresponding to avatar A, as a result of performing the action, will This is because they will be able to intuitively understand that they can also experience the environment themselves.

しかし、第2発明において、所定のトリガーイベントとなる「所定の動作」とは、このようにアバターがゴーストに触れる動作に限定されるものではなく、アバターがゴーストを基準として行う何らかの動作であればよい。 However, in the second invention, the "predetermined action" that is a predetermined trigger event is not limited to the action of the avatar touching the ghost, but any action that the avatar performs with reference to the ghost. good.

例えば、所定の動作とは、アバターがゴーストに接触するような動作、アバターがゴーストを基準とした所定の範囲内に移動するような動作、アバターが仮想空間に存在するオブジェクトを操作する際に、その対象としてゴーストを選択するような動作(例えば、カメラ型オブジェクトでゴーストを撮影するような動作等)等であってもよい。 For example, the predetermined action is an action in which the avatar touches a ghost, an action in which the avatar moves within a predetermined range based on the ghost, an avatar operating an object existing in the virtual space, An action of selecting a ghost as the target (for example, an action of photographing a ghost with a camera-type object, etc.) may be used.

さらに、第2発明におけるトリガーイベントは、必ずしも、第1ユーザ及び第2ユーザの一方に対応するアバターが第1ユーザ及び第2ユーザの他方に対応するゴーストに対して実行する所定の動作である必要はない。そのため、例えば、別途設けられたインターフェースを介して、ユーザが特性の変化を指示した場合に、その指示を行ったことを、トリガーイベントとしてもよい。 Furthermore, the trigger event in the second invention must be a predetermined action performed by the avatar corresponding to one of the first user and the second user to the ghost corresponding to the other of the first user and the second user. no. Therefore, for example, when the user gives an instruction to change the characteristics via an interface provided separately, the fact that the instruction is given may be set as the trigger event.

また、上記実施形態では、第1実施形態におけるVRシステムS1とは異なり、アバターAに付与される特性が1種類のみとなっている。しかし、第2発明の仮想空間体感システムは、このような構成に限定されるものではなく、本実施形態のように仮想空間を同期させる処理に加え、第1実施形態のようにアバターの特性を同期させる処理も実行されるように構成されていてもよい。 Further, in the above embodiment, unlike the VR system S1 in the first embodiment, only one type of characteristic is given to the avatar A. However, the virtual space bodily sensation system of the second invention is not limited to such a configuration. It may be configured such that a process for synchronizing is also executed.

[第3実施形態]
以下、図14~図20を参照して、第3実施形態に係る複合空間体感システムであるMRシステムS3について説明する。
[Third embodiment]
The MR system S3, which is a complex spatial sensation system according to the third embodiment, will be described below with reference to FIGS. 14 to 20. FIG.

MRシステムS3は、現実空間RSの所定の領域(例えば、1つの部屋等)に共に存在する第3ユーザU3及び第4ユーザU4(第3発明における第1ユーザ及び第2ユーザ。以下、総称する場合は「ユーザU」という。)に対し、その領域に対応する第1複合空間MS1又は第2複合空間MS2(以下、総称する場合は「複合空間MS」という。)に、自らが共に存在すると認識させるものである(図17等参照)。 The MR system S3 includes a third user U3 and a fourth user U4 (first user and second user in the third invention; hereinafter collectively referred to as In this case, it is referred to as “user U”). This is for recognition (see FIG. 17, etc.).

なお、本実施形態では、理解を容易にするために、ユーザは2人としている。しかし、第3発明の複合空間体感システムは、そのような構成に限定されるものではなく、ユーザの数は3人以上であってもよい。 In this embodiment, two users are assumed for easy understanding. However, the complex spatial sensation system of the third invention is not limited to such a configuration, and the number of users may be three or more.

[システムの概略構成]
まず、図14を参照して、MRシステムS3の概略構成について説明する。
[Schematic configuration of the system]
First, a schematic configuration of the MR system S3 will be described with reference to FIG.

図14に示すように、MRシステムS3は、現実空間RSに存在するユーザU及び現実空間RSを撮影するカメラ5と、複合空間MS(図4等参照)の画像及び音を決定するサーバ6と、決定された画像及び音をユーザに認識させるヘッドマウントディスプレイ(以下、「HMD7」という。)とを備えている。 As shown in FIG. 14, the MR system S3 includes a user U existing in the physical space RS, a camera 5 that captures the physical space RS, and a server 6 that determines images and sounds of the complex space MS (see FIG. 4, etc.). , and a head-mounted display (hereinafter referred to as “HMD 7”) that allows the user to recognize the determined image and sound.

MRシステムS3では、カメラ5、サーバ6及びHMD7は、インターネット網、公衆回線、近距離無線通信等の無線で相互に情報を送受信可能となっている。ただし、それらのいずれか同士を有線で相互に情報を送受信可能に構成してもよい。 In the MR system S3, the camera 5, the server 6, and the HMD 7 are capable of mutually transmitting and receiving information wirelessly, such as through the Internet network, public lines, and short-range wireless communication. However, any one of them may be configured to transmit and receive information to and from each other by wire.

カメラ5は、ユーザUの存在する現実空間RSのユーザUが動作可能範囲(すなわち、座標の移動、向きを含む姿勢の変化等をし得る範囲)を多方向から撮影可能なように設置されている。 The camera 5 is installed in such a way that the user U in the real space RS in which the user U exists can photograph the operable range (that is, the range in which the user U can move the coordinates, change the posture including the orientation, etc.) from multiple directions. there is

サーバ6は、カメラ5が撮影した画像からユーザUの身体等における特徴点を認識し、その認識された特徴点の現実空間RSにおける位置に基づいて、ユーザUの座標及び姿勢を認識する。また、サーバ6は、カメラ5が撮影した画像から現実空間RSの特徴点を認識し、現実空間RSに存在する実在のオブジェクト(例えば、本棚等)の座標及び姿勢を認識する。 The server 6 recognizes feature points on the user U's body or the like from the image captured by the camera 5, and recognizes the coordinates and posture of the user U based on the positions of the recognized feature points in the physical space RS. Also, the server 6 recognizes the feature points of the physical space RS from the image captured by the camera 5, and recognizes the coordinates and orientation of a real object (for example, a bookshelf) existing in the physical space RS.

さらに、サーバ6は、ユーザUの座標及び姿勢、並びに、現実空間RSにおける特徴点に基づいて、ユーザUに認識させる複合空間MSの画像及び音を決定する。 Further, the server 6 determines images and sounds of the complex space MS that the user U is made to recognize, based on the coordinates and posture of the user U and feature points in the physical space RS.

HMD7は、ユーザに複合空間MSの環境を認識させる環境出力器である。HMD7は、ユーザUの頭部に装着される。HMD7は、ユーザUに、サーバ6によって決定された複合空間MSの画像をユーザUの認識させるためのモニタ70と、サーバ6によって決定された複合空間MSの音をユーザUに認識させるためのスピーカ71とを有している(図15参照)。 The HMD 7 is an environment output device that allows the user to recognize the environment of the complex space MS. The HMD 7 is worn on the user's U head. The HMD 7 includes a monitor 70 for allowing the user U to recognize the image of the composite space MS determined by the server 6, and a speaker for allowing the user U to recognize the sound of the composite space MS determined by the server 6. 71 (see FIG. 15).

MRシステムS3を用いて複合空間MSを体感する場合、ユーザUは、現実空間RSの画像及び音とともに、体感せられる複合空間MSに対応した仮想のオブジェクトに関する画像及び音を認識させられる。なお、その仮想のオブジェクトは、ユーザUの動作に応じて、所定の動作(例えば、座標の移動等)を行うものとして構成されている。 When experiencing the complex space MS using the MR system S3, the user U is made to recognize images and sounds of a virtual object corresponding to the experienced complex space MS together with the images and sounds of the real space RS. Note that the virtual object is configured to perform a predetermined action (for example, movement of coordinates, etc.) according to the user's U action.

なお、第3発明の複合空間体感システムは、そのような構成に限定されるものではない。例えば、モーションキャプチャー装置を使用する場合には、上記の構成のものの他、カメラの数及び配置が図示した数及び配置とは異なる構成のものを用いてもよい。また、ユーザの特徴点及び現実空間の特徴点の少なくとも一方の特徴点を認識するために、ユーザ又は現実空間に存在する実在のオブジェクトに取り付ける標識を用いてもよい。 The complex spatial sensation system of the third invention is not limited to such a configuration. For example, when a motion capture device is used, in addition to the configuration described above, a configuration in which the number and arrangement of cameras are different from those shown in the drawings may be used. Also, in order to recognize at least one of the feature points of the user and the feature points of the real space, a marker attached to the user or a real object existing in the real space may be used.

また、例えば、モーションキャプチャー装置に代わり、ユーザの座標のみを認識する装置を用いてもよい。具体的には、例えば、HMDにGPS等のセンサを搭載し、そのセンサからの出力に基づいて、ユーザの座標、姿勢等を認識するようにしてもよい。また、そのようなセンサと、上記のようなモーションキャプチャー装置とを併用してもよい。
[処理部の構成]
次に、図15を用いて、サーバ6の備えている処理部の構成を詳細に説明する。
Also, for example, instead of the motion capture device, a device that recognizes only the coordinates of the user may be used. Specifically, for example, a sensor such as GPS may be installed in the HMD, and the user's coordinates, posture, etc. may be recognized based on the output from the sensor. Also, such a sensor may be used in combination with the motion capture device as described above.
[Configuration of processing unit]
Next, using FIG. 15, the configuration of the processing unit provided in the server 6 will be described in detail.

サーバ6は、CPU、RAM、ROM、インターフェース回路等を含む1つ又は複数の電子回路ユニットにより構成されている。サーバ6は、実装されたハードウェア構成又はプログラムにより実現される機能(処理部)として、図15に示すように、現実空間認識部60と、複合環境生成部61と、ユーザ動作認識部62と、オブジェクト制御部63と、ユーザ環境決定部64と、トリガーイベント認識部65とを備えている。 The server 6 is composed of one or more electronic circuit units including a CPU, RAM, ROM, interface circuits, and the like. As shown in FIG. 15, the server 6 includes a real space recognition unit 60, a complex environment generation unit 61, and a user action recognition unit 62 as functions (processing units) realized by implemented hardware configurations or programs. , an object control unit 63 , a user environment determination unit 64 , and a trigger event recognition unit 65 .

現実空間認識部60は、カメラ5が撮影した現実空間RSの画像データを認識し、その画像データに基づいて、現実空間RSの状況を認識ずる。現実空間RSの状況とは、例えば、現実空間RSに存在する他のユーザU及び実在のオブジェクトの座標及び姿勢等である。 The physical space recognition unit 60 recognizes the image data of the physical space RS captured by the camera 5, and recognizes the situation of the physical space RS based on the image data. The situation of the physical space RS is, for example, the coordinates and attitudes of other users U and real objects existing in the physical space RS.

複合環境生成部61は、オブジェクト生成部61aと、複合空間生成部61bとを有している。 The complex environment generator 61 has an object generator 61a and a complex space generator 61b.

オブジェクト生成部61aは、複合空間MSに存在させて、ユーザUに認識させる仮想のオブジェクトを生成する(図17等参照)。その仮想のオブジェクトには、後述する第1複合空間MS1に存在させる第3オブジェクトO3、及び、第2複合空間MS2に存在させる第4オブジェクトO4(第3発明における第1オブジェクト及び第2オブジェクト)が含まれる。 The object generation unit 61a generates a virtual object that exists in the complex space MS and is recognized by the user U (see FIG. 17, etc.). The virtual objects include a third object O3 existing in a first complex space MS1 and a fourth object O4 existing in a second complex space MS2 (the first object and the second object in the third invention). included.

第3オブジェクトO3及び第4オブジェクトO4(以下、総称する場合は「オブジェクトO」という。)の少なくとも一部は、複合空間MSで、ユーザUの動作に応じて動作するものとして構成されている。 At least a part of the third object O3 and the fourth object O4 (hereinafter collectively referred to as "object O") is configured to move according to the user U's motion in the complex space MS.

複合空間生成部61bは、現実空間認識部60で認識された現実空間RSの画像に第3オブジェクトO3を存在させて、第1複合空間MS1を生成する。また、複合空間生成部61bは、現実空間認識部60で認識された現実空間RSの画像に第4オブジェクトO4を存在させて、第2複合空間MS2を生成する。 The composite space generation unit 61b makes the third object O3 exist in the image of the physical space RS recognized by the physical space recognition unit 60 to generate the first composite space MS1. In addition, the composite space generation unit 61b makes the fourth object O4 exist in the image of the physical space RS recognized by the physical space recognition unit 60 to generate the second composite space MS2.

ユーザ動作認識部62は、カメラ5が撮影したユーザUの画像データを認識し、その画像データに基づいて、ユーザUの現実空間RSにおける動作を認識する。ユーザ動作認識部62は、ユーザ姿勢認識部62aと、ユーザ座標認識部62bとを有している。 The user action recognition unit 62 recognizes image data of the user U captured by the camera 5, and recognizes actions of the user U in the physical space RS based on the image data. The user action recognition section 62 has a user posture recognition section 62a and a user coordinate recognition section 62b.

ユーザ姿勢認識部62aは、入力されたユーザUの画像データからユーザUの身体等の特徴点を抽出し、その抽出結果に基づいて、ユーザUの向きを含む姿勢を認識する。 The user posture recognition unit 62a extracts feature points such as the body of the user U from input image data of the user U, and recognizes the posture including the orientation of the user U based on the extraction result.

ユーザ座標認識部62bは、入力されたユーザUの画像データから抽出されたユーザUの身体等の特徴点の抽出結果、及び、現実空間認識部60が認識した現実空間RSの状況(例えば、実在のオブジェクトの座標等)に基づいて、ユーザUの座標を認識する。 The user coordinate recognition unit 62b extracts the result of extracting feature points such as the body of the user U extracted from the input image data of the user U, and the state of the real space RS recognized by the real space recognition unit 60 (for example, the actual , etc.), the coordinates of the user U are recognized.

オブジェクト制御部63は、ユーザ姿勢認識部62aによって認識されたユーザUの現実空間RSにおける姿勢、及び、ユーザ座標認識部62bによって認識されたユーザUの現実空間RSにおける座標に基づいて、そのユーザUの体感している複合空間MSに存在しているオブジェクトOの動作を制御する。 The object control unit 63 determines the position of the user U based on the posture of the user U in the physical space RS recognized by the user posture recognition unit 62a and the coordinates of the user U in the physical space RS recognized by the user coordinate recognition unit 62b. to control the motion of the object O existing in the complex space MS experienced by .

例えば、オブジェクト制御部63は、ユーザUがオブジェクトOを移動させるような動作を行った際に、そのオブジェクトOの複合空間MSにおける座標を移動させる。 For example, the object control unit 63 moves the coordinates of the object O in the composite space MS when the user U performs an action to move the object O. FIG.

ユーザ環境決定部64は、ユーザUに、HMD7のモニタ70及びスピーカ71を介して認識させる複合空間MSの環境を決定する。 The user environment determining unit 64 determines the environment of the complex space MS to be recognized by the user U through the monitor 70 and the speaker 71 of the HMD 7 .

ここで、ユーザに「認識させる環境」とは、そのユーザに五感によって認識させる複合空間の環境を指す。例えば、ユーザの環境とは、ユーザに認識させる複合空間に存在するオブジェクトの画像、そのオブジェクトに基づいて発生される音等である。 Here, the “environment to be recognized” by the user refers to the environment of the complex space that is recognized by the user through the five senses. For example, the user's environment is an image of an object existing in a complex space recognized by the user, a sound generated based on the object, and the like.

本実施形態では、ユーザ環境決定部64は、ユーザUの動作及びユーザUに体感させる複合空間MSの種類を認識し、ユーザUの動作に基づいて、複合空間MSのどの領域を、そのユーザUに体感させるかを決定する。 In this embodiment, the user environment determining unit 64 recognizes the motion of the user U and the type of the composite space MS that the user U is allowed to experience, and based on the motion of the user U, determines which region of the composite space MS the user U Decide whether you want to experience it.

トリガーイベント認識部65は、システム設計者が予め定めた条件を満たした際に、所定のトリガーイベントが発生したことを認識する。 The trigger event recognition unit 65 recognizes that a predetermined trigger event has occurred when a condition predetermined by the system designer is satisfied.

ここで、「トリガーイベント」は、ユーザがその発生を認識していないものであってもよい。そのため、トリガーイベントとしては、例えば、ユーザが現実空間において所定の動作を行うこと等のユーザの動作に起因するものも該当するし、所定時間の経過といったユーザの動作に起因しないものも該当する。 Here, the "trigger event" may be one that the user is unaware of. Therefore, the trigger event includes, for example, events caused by the user's actions such as the user performing a predetermined action in the real space, and events not caused by the user's actions such as the passage of a predetermined time.

なお、第3発明の複合空間体感システムを構成する各処理部は、上記のような構成に限定されるものではない。 It should be noted that each processing unit that constitutes the complex spatial sensation system of the third invention is not limited to the configuration as described above.

例えば、本実施形態においてサーバ6に設けられている処理部の一部を、HMD7に設けてもよい。また、複数のサーバを用いて構成してもよいし、サーバを省略してHMDに搭載されているCPUを協働させて構成してもよい。また、HMDに搭載されているスピーカ以外のスピーカを設けてもよい。また、視覚及び聴覚へ影響を与えるデバイスの他、複合空間に応じた匂い、風等を生じさせるような嗅覚及び触覚へ影響を与えるデバイスを含めてもよい。 For example, part of the processing unit provided in the server 6 in this embodiment may be provided in the HMD 7 . Alternatively, a plurality of servers may be used, or the servers may be omitted and the CPUs mounted on the HMDs may cooperate with each other. Also, a speaker other than the speaker mounted on the HMD may be provided. In addition to devices that affect sight and hearing, devices that affect smell and touch, such as generating smells, wind, etc., according to a complex space may also be included.

[実行される処理]
次に、図15~図20を参照して、MRシステムS3を用いてユーザUに複合空間MSを体感させる際に、MRシステムS3の実行する処理について説明する。
[Process to be executed]
Next, with reference to FIGS. 15 to 20, processing executed by the MR system S3 when allowing the user U to experience the complex space MS using the MR system S3 will be described.

[通常の使用状態における処理]
まず、図15~図17を参照して、MRシステムS3が使用開始時、及び、通常の使用状態(すなわち、後述する所定のトリガーイベントを認識していない状態)で実行する処理について説明する。
[Processing during normal use]
First, with reference to FIGS. 15 to 17, processing executed by the MR system S3 at the start of use and in normal use (that is, in a state in which a predetermined trigger event to be described later is not recognized) will be described.

この処理においては、まず、サーバ6の複合環境生成部61は、第1複合空間MS1及び第2複合空間MS2を生成する(図16/STEP500)。 In this process, first, the composite environment generator 61 of the server 6 generates the first composite space MS1 and the second composite space MS2 (FIG. 16/STEP 500).

具体的には、図17に示すように、まず、複合環境生成部61のオブジェクト生成部61aは、第1複合空間MS1に存在させる第3オブジェクトO3、及び、第2複合空間MS2に存在させる第4オブジェクトO4を生成する。 Specifically, as shown in FIG. 17, first, the object generation unit 61a of the composite environment generation unit 61 generates a third object O3 to exist in the first composite space MS1 and a third object O3 to exist in the second composite space MS2. 4 Create an object O4.

本実施形態では、第3オブジェクトO3は、第1複合空間MS1を認識しているユーザUの動作に応じて座標及び姿勢が制御される花の鉢植えのオブジェクト(以下、単に「花O30」という。)と、他のユーザUに付加される第1メッセージボードO31とを含んでいる。第1メッセージボードO31には、その第1メッセージボードO31を付加されたユーザUのステータス(例えば、体感している複合空間MSの種類等)が表示される。 In the present embodiment, the third object O3 is a potted flower object (hereinafter simply referred to as "flower O30") whose coordinates and orientation are controlled according to the motion of the user U who recognizes the first complex space MS1. ) and a first message board O31 added to another user U. The first message board O31 displays the status of the user U to whom the first message board O31 is added (for example, the type of complex space MS being experienced, etc.).

また、本実施形態では、第4オブジェクトO4は、第2複合空間MS2を認識しているユーザUの動作に応じて座標及び姿勢が制御される本のオブジェクト(以下、単に「本O40」という。)と、他のユーザUに付加される第2メッセージボードO41とを含んでいる。第2メッセージボードO41には、その第2メッセージボードO41を付加されたユーザUのステータス(例えば、体感している複合空間MSの種類等)が表示される。 Further, in the present embodiment, the fourth object O4 is a book object (hereinafter simply referred to as "book O40" whose coordinates and orientation are controlled according to the motion of the user U who is aware of the second composite space MS2. ) and a second message board O41 added to another user U. The second message board O41 displays the status of the user U to whom the second message board O41 is attached (for example, the type of complex space MS being experienced).

その後、複合環境生成部61の複合空間生成部61bは、現実空間認識部60によって認識された現実空間RSの画像に、第3オブジェクトO3を重畳させて、第1複合空間MS1を生成する。また、複合空間生成部61bは、現実空間認識部60によって認識された現実空間RSの画像に、第4オブジェクトO4を重畳させて、第2複合空間MS2を生成する。 After that, the complex space generation unit 61b of the complex environment generation unit 61 superimposes the third object O3 on the image of the physical space RS recognized by the physical space recognition unit 60 to generate the first complex space MS1. The composite space generation unit 61b also superimposes the fourth object O4 on the image of the physical space RS recognized by the physical space recognition unit 60 to generate the second composite space MS2.

次に、サーバ6のユーザ環境決定部64は、第3ユーザU3に認識させる複合空間MS及び第4ユーザU4に認識させる複合空間MSを決定する(図16/STEP501)。 Next, the user environment determining unit 64 of the server 6 determines the composite space MS to be recognized by the third user U3 and the composite space MS to be recognized by the fourth user U4 (FIG. 16/STEP 501).

具体的には、ユーザ環境決定部64は、別途設けられたインターフェース(不図示)を介して入力されたユーザUからの指示に基づいて、ユーザUに認識させる複合空間MSを選択する。 Specifically, the user environment determining unit 64 selects the composite space MS to be recognized by the user U based on an instruction from the user U input via an interface (not shown) provided separately.

本実施形態では、第3ユーザU3は、第1複合空間MS1を認識することを選択し、第4ユーザU4は、第2複合空間MS2を認識することを選択したものとする。 In this embodiment, it is assumed that the third user U3 has selected to recognize the first composite space MS1, and the fourth user U4 has selected to recognize the second composite space MS2.

なお、第3発明において、ユーザに認識させる複合空間を決定する方法は、このような構成に限定されるものではなく、システム設計者が適宜設定してよい。そのため、例えば、予め入力されたユーザの特性(ユーザの年齢といった身体的な特性、複合空間体感システムの使用目的といった特性等)に応じて、そのユーザに認識させる複合空間を、自動的に決定するように構成されていてもよい。 In addition, in the third invention, the method of determining the composite space to be recognized by the user is not limited to such a configuration, and may be appropriately set by the system designer. Therefore, for example, the complex space to be recognized by the user is automatically determined according to the characteristics of the user input in advance (physical characteristics such as the user's age, characteristics such as the purpose of use of the complex spatial sensation system, etc.). It may be configured as

次に、サーバ6のユーザ環境決定部64は、MRシステムMS3の使用開始時における第3ユーザU3の状態及び第1複合空間MS1の状況に基づいて、第3ユーザU3に認識させる第1複合空間MS1における環境を決定し、MRシステムMS3の使用開始時における第4ユーザU4の状態及び第2複合空間MS2の状況に基づいて、第4ユーザU4に認識させる第2複合空間MS2における環境を決定する(図16/STEP502)。 Next, the user environment determining unit 64 of the server 6 makes the third user U3 recognize the first composite space based on the state of the third user U3 and the state of the first composite space MS1 at the start of use of the MR system MS3. The environment in MS1 is determined, and the environment in the second complex space MS2 to be recognized by the fourth user U4 is determined based on the state of the fourth user U4 and the situation of the second complex space MS2 at the start of use of the MR system MS3. (FIG. 16/STEP 502).

具体的には、ユーザ環境決定部64は、第3ユーザU3に認識させる環境として、第3ユーザU3の現実空間RSの座標及び姿勢に基づいて、現実空間RSのうちの認識させる領域の画像、その領域における第3オブジェクトO3の画像、及び、それに伴う音を決定する。 Specifically, the user environment determining unit 64, as the environment to be recognized by the third user U3, based on the coordinates and orientation of the physical space RS of the third user U3, creates an image of a region to be recognized in the physical space RS, The image of the third object O3 in that area and the accompanying sound are determined.

また、ユーザ環境決定部64は、第4ユーザU4に認識させる環境として、第4ユーザU4の現実空間RSの座標及び姿勢に基づいて、現実空間RSのうちの認識させる領域の画像、その領域における第4オブジェクトO4の画像、及び、それに伴う音を決定する。 In addition, the user environment determination unit 64, as the environment to be recognized by the fourth user U4, based on the coordinates and posture of the physical space RS of the fourth user U4, the image of the region to be recognized in the physical space RS, The image of the fourth object O4 and the accompanying sound are determined.

次に、ユーザUに装着されたHMD7は、決定された環境を出力する(図16/STEP503)。 Next, the HMD 7 worn by the user U outputs the determined environment (FIG. 16/STEP 503).

具体的には、HMD7は、HMD7に搭載されているモニタ70に、決定された画像を表示させ、HMD7に搭載されているスピーカ71に決定された音を発生させる。 Specifically, the HMD 7 causes the monitor 70 mounted on the HMD 7 to display the determined image, and the speaker 71 mounted on the HMD 7 to generate the determined sound.

次に、サーバ6のユーザ動作認識部31は、第3ユーザU3又は第4ユーザU4がなんらかの動作を行ったか否かを判断する(図16/STEP504)。 Next, the user action recognition section 31 of the server 6 determines whether or not the third user U3 or the fourth user U4 has performed some action (FIG. 16/STEP 504).

ユーザUが動作した場合(STEP504でYESの場合)、サーバ6のオブジェクト制御部63は、そのユーザUの動作がオブジェクトOを操作する動作であるか否かを判断する(図16/STEP505)。 If the user U has made an action (YES in STEP 504), the object control unit 63 of the server 6 determines whether or not the action of the user U is to operate the object O (FIG. 16/STEP 505).

例えば、ユーザUの動作が、オブジェクト制御部63は、そのユーザUが存在している複合空間MSで、その複合空間MSに存在しているオブジェクトOを、移動させるような動作であるか否かを判断する。具体的には、オブジェクト制御部63は、ユーザUの動作がそのオブジェクトOに対する所定の動作に該当するか否かを判断する。 For example, whether the action of the user U is such that the object control unit 63 moves the object O existing in the composite space MS in which the user U exists. to judge. Specifically, the object control unit 63 determines whether or not the action of the user U corresponds to the predetermined action with respect to the object O.

ユーザUの動作がオブジェクトOを操作する動作であった場合(STEP505でYESの場合)、オブジェクト制御部63は、ユーザUの動作の種類に応じて、オブジェクトOを制御する(図16/STEP506)。 If the action of the user U is to operate the object O (YES in STEP505), the object control unit 63 controls the object O according to the type of action of the user U (FIG. 16/STEP506). .

例えば、オブジェクト制御部63は、ユーザUの動作がオブジェクトOを移動させるような動作であった場合には、その動作の内容に応じて、オブジェクトOの座標を変化させる。 For example, when the action of the user U is such as to move the object O, the object control unit 63 changes the coordinates of the object O according to the content of the action.

オブジェクトOを制御する処理(STEP506の処理)を実行した後、又は、ユーザUの動作がオブジェクトOを操作する動作でなかった場合(STEP505でNOの場合)、ユーザ環境決定部64は、その時点における第3ユーザU3の状態及び第1複合空間MS1の状況に基づいて、第3ユーザU3に認識させる第1複合空間MS1における環境を決定し、その時点における第4ユーザU4の状態及び第2複合空間MS2の状況に基づいて、第4ユーザU4に認識させる第2複合空間MS2における環境を決定する(図16/STEP507)。 After executing the process of controlling the object O (the process of STEP 506), or when the action of the user U is not the action of operating the object O (NO in STEP 505), the user environment determination unit 64 determines Based on the state of the third user U3 and the situation of the first composite space MS1 at that time, the environment in the first composite space MS1 to be recognized by the third user U3 is determined, and the state of the fourth user U4 at that time and the second composite space Based on the situation of the space MS2, the environment in the second composite space MS2 to be recognized by the fourth user U4 is determined (FIG. 16/STEP 507).

次に、HMD7は、STEP503と同様の処理を実行して、決定された環境を出力する(図16/STEP508)。 Next, the HMD 7 executes the same processing as in STEP503 and outputs the determined environment (FIG. 16/STEP508).

決定された環境を出力する処理(STEP508の処理)を実行した後、又は、ユーザUが動作しなかった場合(STEP504でNOの場合)、サーバ6は、処理の終了を指示する信号を認識したか否かを判断する(図16/STEP509)。 After executing the process of outputting the determined environment (the process of STEP 508), or when the user U did not act (NO in STEP 504), the server 6 recognized a signal instructing the end of the process. (FIG. 16/STEP 509).

終了を指示する信号を認識できなかった場合(STEP509でNOの場合)、STEP504に戻り、再度、STEP504以降の処理が実行される。 If the signal instructing the end cannot be recognized (NO in STEP 509), the process returns to STEP 504, and the processes after STEP 504 are executed again.

一方、終了を指示する信号を認識した場合(STEP509でYESの場合)、MRシステムS3は、今回の処理を終了する。 On the other hand, if the MR system S3 recognizes the signal instructing the end (YES in STEP509), the MR system S3 ends the current process.

以上の処理により、図17に示すように、第3ユーザU3は、装着したHMD4で表示される画像及び発生される音によって、現実空間RSに第3オブジェクトO3を存在させた第1複合空間MS1を認識し、その第1複合空間MS1で第3オブジェクトO3を操作することができる状態となる。 As a result of the above processing, as shown in FIG. 17, the third user U3 can create a first composite space MS1 in which the third object O3 exists in the physical space RS by means of the image displayed and the sound generated by the HMD 4 worn by the third user U3. is recognized, and the third object O3 can be manipulated in the first composite space MS1.

また、装着したHMD4で表示される画像及び発生される音によって、第4ユーザU4は、現実空間RSに第4オブジェクトO4を存在させた第2複合空間MS2を認識し、その第2複合空間MS2で第4オブジェクトO4を操作することができる状態となる。 Further, the fourth user U4 recognizes the second composite space MS2 in which the fourth object O4 exists in the physical space RS from the image displayed and the sound generated by the HMD 4 worn by the user, and recognizes the second composite space MS2. , the fourth object O4 can be operated.

なお、このとき、第3ユーザU3及び第4ユーザU4の一方の認識している複合空間MSには、現実空間RSを基準として生成されたものであるので、その現実空間RSに存在する第3ユーザU3及び第4ユーザU4の他方も存在する。 At this time, since the composite space MS recognized by one of the third user U3 and the fourth user U4 is generated based on the physical space RS, the third user existing in the physical space RS The other of user U3 and fourth user U4 is also present.

そして、前述のように、第3ユーザU3及び第4ユーザU4の他方には、その第3ユーザU3又は第4ユーザU4の体感している複合空間MSの種類を示すオブジェクトである第1メッセージボードO31又は第2メッセージボードO41が付加されている。 Then, as described above, the other of the third user U3 and the fourth user U4 is provided with the first message board, which is an object indicating the type of the complex space MS experienced by the third user U3 or the fourth user U4. O31 or a second message board O41 is added.

そのため、第3ユーザU3と第4ユーザU4とは、同時にMRシステムS3を使用していること、及び、使用している場合にはどの複合空間MSを体感しているかを、互いに認識できる状態となっている。 Therefore, the third user U3 and the fourth user U4 can mutually recognize that they are using the MR system S3 at the same time and, if so, which complex space MS they are experiencing. It's becoming

[複合空間を同期させる際及びそれ以降における処理]
次に、図14、図18~図20を参照して、複合空間MSを同期させる際及びそれ以後において実行する処理について説明する。
[Processing when Synchronizing Complex Spaces and Afterwards]
Next, with reference to FIGS. 14 and 18 to 20, processing to be executed when synchronizing the complex space MS and after that will be described.

まず、この処理の具体的な説明に先立ち、この処理が実行される背景について説明する。 First, prior to a specific description of this process, the background of the execution of this process will be described.

前述のように、本実施形態では、MRシステムS3の使用を開始した段階では、第3ユーザU3は、第1複合空間MS1を体感しており、第4ユーザU4は、第2複合空間MS2を体感している。 As described above, in this embodiment, when the MR system S3 is started to be used, the third user U3 is experiencing the first composite space MS1, and the fourth user U4 is experiencing the second composite space MS2. I feel it.

そのようにユーザUごとに体感している複合空間MSが異なる場合、例えば、ユーザUがコミュニケーション(具体的には、会話等)を行った際等に、第3ユーザU3及び第4ユーザU4の一方が他方の環境を体感したい、又は、一方が他方に自らの環境を体感させたいという要望が生じることがある。 When the complex space MS experienced by each user U is different, for example, when the users U communicate (specifically, a conversation, etc.), the third user U3 and the fourth user U4 A desire may arise for one to experience the environment of the other, or for one to allow the other to experience its own environment.

例えば、本実施形態では、第1複合空間MS1を体感している第3ユーザU3が、現実空間RSに実在している棚に、仮想のオブジェクトである花O30を並べたとする。そのとき、第2複合空間MS2を体感している第4ユーザU4は、第2複合空間MS2を体感しているので、第1複合空間MS1及び第2複合空間MS2に共通して存在する棚そのものを認識することはできても、そこに並べられた第1複合空間MS1のオブジェクトである花O30を認識することはできない。 For example, in the present embodiment, it is assumed that the third user U3, who is experiencing the first complex space MS1, arranges flowers O30, which are virtual objects, on a shelf that actually exists in the physical space RS. At that time, since the fourth user U4 who is experiencing the second composite space MS2 is experiencing the second composite space MS2, the shelves that exist in common in the first composite space MS1 and the second composite space MS2 can be recognized, the flower O30, which is an object of the first composite space MS1 arranged there, cannot be recognized.

そのような場合、第3ユーザU3が第4ユーザU4に対して、自らの並べた花O30の状態を見てほしいと会話等によって伝えた結果、第4ユーザU4が、第3ユーザU3が視認している花O30を、第3ユーザU3と同様に視認したいという要望が生じることがある。 In such a case, as a result of the third user U3 communicating to the fourth user U4 through conversation or the like that he would like the fourth user U4 to see the state of the flowers O30 that he has arranged, There may be a desire to visually recognize the flower O30 holding the flower O30 in the same manner as the third user U3.

そこで、本実施形態のMRシステムS3では、そのような要望が生じた場合に対応するために、以下に説明する処理によって、第3ユーザU3の体感している第1複合空間MS1と、第4ユーザU4の体感している第2複合空間MS2とを同期させる処理を、実行可能に構成されている。 Therefore, in the MR system S3 of the present embodiment, in order to respond to such a request, the processing described below is performed so that the first complex space MS1 experienced by the third user U3 and the fourth space It is configured to be able to execute a process of synchronizing with the second complex space MS2 experienced by the user U4.

この処理においては、まず、サーバ6のトリガーイベント認識部65は、所定のトリガーイベントを認識したか否かを判断する(図18/STEP600)。 In this process, first, the trigger event recognition section 65 of the server 6 determines whether or not a predetermined trigger event has been recognized (FIG. 18/STEP 600).

具体的には、トリガーイベント認識部65は、複合空間MSにおけるユーザUの動作を認識し、その動作が所定のトリガーイベントとして予め規定された所定の動作に該当するか否を判断する。本実施形態では、図19に示すように、第3ユーザU3及び第4ユーザU4の一方が他方に触れる動作が、所定のトリガーイベントとして設定されている。 Specifically, the trigger event recognition unit 65 recognizes the motion of the user U in the complex space MS, and determines whether or not the motion corresponds to a predetermined motion defined in advance as a predetermined trigger event. In this embodiment, as shown in FIG. 19, an action in which one of the third user U3 and the fourth user U4 touches the other is set as a predetermined trigger event.

所定のトリガーイベントを認識した場合(STEP600でYESの場合)、サーバ6のユーザ環境決定部64は、ユーザUに体感させる複合空間MSの種類を同期させる(図18/STEP601)。 When a predetermined trigger event is recognized (YES in STEP600), the user environment determination unit 64 of the server 6 synchronizes the type of complex space MS that the user U experiences (FIG. 18/STEP601).

具体的には、ユーザ環境決定部64は、第3ユーザU3体感させる複合空間MSを、第1複合空間MS1のまま維持し、第4ユーザU4に体感させる複合空間MSを、第2複合空間MS2から第1複合空間MS1に変更する。 Specifically, the user environment determining unit 64 maintains the composite space MS experienced by the third user U3 as the first composite space MS1, and changes the composite space MS experienced by the fourth user U4 to the second composite space MS2. to the first composite space MS1.

さらに具体的には、ユーザ環境決定部64は、この処理以降において、第3ユーザU3に認識させるオブジェクトとして、第2複合空間MS2を生成するためのオブジェクト(例えば、本O40等)ではなく、第1複合空間MS1を生成するためのオブジェクト(例えば、花O30等)に変更する。 More specifically, after this process, the user environment determining unit 64 selects the object to be recognized by the third user U3 as the object for generating the second composite space MS2 (for example, the book O40, etc.), but not the object for generating the second complex space MS2. 1 Change to an object (for example, a flower O30, etc.) for generating a composite space MS1.

次に、ユーザ環境決定部64は、ユーザ環境決定部64は、その時点における第3ユーザU3及び第4ユーザU4の状態及び第1複合空間MS1の状況に基づいて、第3ユーザU3及び第4ユーザU4に認識させる第1複合空間MS1における環境を決定する(図18/STEP602)。 Next, the user environment determination unit 64 determines the conditions of the third user U3 and the fourth user U4 based on the conditions of the third user U3 and the fourth user U4 and the conditions of the first composite space MS1 at that time. The environment in the first composite space MS1 to be recognized by the user U4 is determined (FIG. 18/STEP 602).

具体的には、ユーザ環境決定部64は、第3ユーザU3に認識させる環境として、第3ユーザU3の現実空間RSの座標及び姿勢に基づいて、現実空間RSのうちの認識させる領域の画像、その領域における第3オブジェクトO3の画像、及び、それに伴う音を決定する。 Specifically, the user environment determining unit 64, as the environment to be recognized by the third user U3, based on the coordinates and orientation of the physical space RS of the third user U3, creates an image of a region to be recognized in the physical space RS, The image of the third object O3 in that area and the accompanying sound are determined.

また、ユーザ環境決定部64は、第4ユーザU4に認識させる環境として、第4ユーザU4の現実空間RSの座標及び姿勢に基づいて、現実空間RSのうちの認識させる領域の画像、その領域における第3オブジェクトO3の画像、及び、それに伴う音を決定する。 In addition, the user environment determination unit 64, as the environment to be recognized by the fourth user U4, based on the coordinates and posture of the physical space RS of the fourth user U4, the image of the region to be recognized in the physical space RS, The image of the third object O3 and the accompanying sound are determined.

これにより、第4ユーザU4は、第3ユーザU3とともに、第1複合空間MS1を体感することができるようになる。その結果、図20に示すように、第4ユーザU4は、第3ユーザU3が実在のオブジェクトである棚に並べた仮想のオブジェクトである花O30を視認することができる状態になる。 This allows the fourth user U4 to experience the first complex space MS1 together with the third user U3. As a result, as shown in FIG. 20, the fourth user U4 can visually recognize the flower O30, which is a virtual object arranged on the shelf, which is a real object, arranged by the third user U3.

一方、所定のトリガーイベントを認識しなかった場合(STEP600でNOの場合)、ユーザ環境決定部64は、その時点における第3ユーザU3の状態及び第1複合空間MS1の状況に基づいて、第3ユーザU3に認識させる第1複合空間MS1における環境を決定し、その時点における第4ユーザU4の状態及び第2複合空間MS2の状況に基づいて、第4ユーザU4に認識させる第2複合空間MS2における環境を決定する(図18/STEP603)。 On the other hand, if the predetermined trigger event is not recognized (NO in STEP600), the user environment determining unit 64 determines the third The environment in the first composite space MS1 to be recognized by the user U3 is determined, and based on the state of the fourth user U4 and the situation of the second composite space MS2 at that time, the environment in the second composite space MS2 to be recognized by the fourth user U4 The environment is determined (FIG. 18/STEP 603).

ユーザUの環境を決定する処理(STEP602の処理、又は、STEP603の処理)を実行した後には、HMD7は、STEP503と同様の処理を実行して、決定された環境を出力する(図18/STEP604)。 After executing the process of determining the environment of the user U (the process of STEP 602 or the process of STEP 603), the HMD 7 executes the same process as STEP 503 and outputs the determined environment (FIG. 18/STEP 604 ).

次に、サーバ6のユーザ動作認識部62は、第3ユーザU3又は第4ユーザU4がなんらかの動作を行ったか否かを判断する(図18/STEP605)。 Next, the user action recognition section 62 of the server 6 determines whether or not the third user U3 or the fourth user U4 has performed some action (FIG. 18/STEP 605).

ユーザUが動作しなかった場合(STEP605でNOの場合)、ユーザ動作認識部62は、第3ユーザU3又は第4ユーザU4が動作したことを認識するまで(STEP605でYESとなるまで)、所定の制御周期でSTEP605の判断を繰り返す。 If the user U does not act (NO in STEP605), the user action recognition unit 62 continues to perform a predetermined The determination in STEP 605 is repeated at the control cycle of .

一方、ユーザUが動作した場合(STEP605でYESの場合)、ユーザ動作認識部62は、その動作が所定のトリガーイベントに対応する所定の動作であるか否かを判断する(図18/STEP606)。 On the other hand, if the user U has made a motion (YES in STEP605), the user motion recognition unit 62 determines whether or not the motion is a predetermined motion corresponding to a predetermined trigger event (FIG. 18/STEP606). .

ユーザUの動作が所定の動作であった場合(STEP606でYESの場合)、トリガーイベント認識部65は、第1複合空間MS1と第2複合空間MS2とを同期させる処理(STEP601の処理)が実行済みであるか否かを判断する(図18/STEP607)。 If the motion of the user U is a predetermined motion (YES in STEP606), the trigger event recognizing unit 65 executes the process of synchronizing the first composite space MS1 and the second composite space MS2 (the process of STEP601). It is determined whether or not it is completed (FIG. 18/STEP 607).

具体的には、トリガーイベント認識部65は、第1複合空間MS1と第2複合空間MS2とを同期させる処理の実行のキーとなる所定のトリガーイベントを認識したことが有るか否かに基づいて、その処理が実行済みであるか否かを判断する。 Specifically, the trigger event recognition unit 65 determines whether or not a predetermined trigger event that is a key to executing the process of synchronizing the first composite space MS1 and the second composite space MS2 has been recognized. , to determine whether the process has been executed.

同期させる処理が実行済みでなかった場合(STEP607でNOの場合)、STEP600に戻り、再度、STEP600以降の処理が実行される。 If the synchronization process has not been executed (NO in STEP607), the process returns to STEP600, and the processes after STEP600 are executed again.

一方、同期させる処理が実行済みであった場合(STEP607でYESの場合)、STEP602に戻り、再度、STEP602以降の処理が実行される。 On the other hand, if the synchronization process has already been executed (YES in STEP607), the process returns to STEP602, and the processes after STEP602 are executed again.

一方、ユーザUの動作が所定の動作でなかった場合(STEP606でNOの場合)、STEP505における処理と同様に、サーバ6のオブジェクト制御部63は、そのユーザUの動作がオブジェクトOを操作する動作であるか否かを判断する(図18/STEP608)。 On the other hand, if the action of the user U is not the predetermined action (NO in STEP 606), the object control unit 63 of the server 6 determines that the action of the user U is an action to operate the object O, similar to the process in STEP 505. (FIG. 18/STEP 608).

ユーザUの動作がオブジェクトOを操作する動作であった場合(STEP608でYESの場合)、STEP506における処理と同様に、オブジェクト制御部63は、ユーザUの動作の種類に応じて、オブジェクトOを制御する(図18/STEP609)。 If the action of the user U is to operate the object O (YES in STEP 608), the object control unit 63 controls the object O according to the type of action of the user U, similar to the process in STEP 506. (FIG. 18/STEP 609).

オブジェクトOを制御する処理(STEP609の処理)を実行した後、又は、ユーザUの動作がオブジェクトOを操作する動作でなかった場合(STEP608でNOの場合)、STEP602における処理又はSTEP603における処理と同様に、ユーザ環境決定部64は、その時点におけるユーザUの状態、及び、そのユーザUが体感している複合空間MSの状況に基づいて、ユーザUに認識させる複合空間MSにおける環境を決定する(図18/STEP610)。 After executing the process of controlling object O (process of STEP 609), or if the action of user U is not the action of operating object O (NO in STEP 608), the same as the process in STEP 602 or the process in STEP 603 Furthermore, the user environment determination unit 64 determines the environment in the composite space MS that the user U is made to recognize based on the state of the user U at that time and the situation of the composite space MS experienced by the user U ( FIG. 18/STEP 610).

次に、HMD7は、STEP604と同様の処理を実行して、決定された環境を出力する(図18/STEP611)。 Next, the HMD 7 executes the same processing as STEP604 and outputs the determined environment (FIG. 18/STEP611).

次に、サーバ6は、処理の終了を指示する信号を認識したか否かを判断する(図18/STEP612)。 Next, the server 6 determines whether or not it has recognized a signal instructing the end of processing (FIG. 18/STEP 612).

終了を指示する信号を認識できなかった場合(STEP612でNOの場合)、STEP605に戻り、再度、STEP605以降の処理が実行される。 If the signal instructing the end cannot be recognized (NO in STEP612), the process returns to STEP605, and the processes after STEP605 are executed again.

一方、終了を指示する信号を認識した場合(STEP612でYESの場合)、MRシステムS3は、今回の処理を終了する。 On the other hand, if the MR system S3 recognizes the signal instructing the end (YES in STEP612), the MR system S3 ends the current process.

以上説明したように、MRシステムS3では、トリガーイベントが認識される以前には、第1複合空間MS1における環境を、第3ユーザU3に認識させる環境として決定するとともに、第2複合空間MS2における環境を、第4ユーザU4に認識させる環境として決定する。 As described above, in the MR system S3, before the trigger event is recognized, the environment in the first composite space MS1 is determined as the environment to be recognized by the third user U3, and the environment in the second composite space MS2 is determined. is determined as the environment to be recognized by the fourth user U4.

一方で、トリガーイベントが認識された以後には、第1複合空間MSにおける環境を、第3ユーザU3及び第4ユーザU4に認識させる環境として決定する。 On the other hand, after the trigger event is recognized, the environment in the first complex space MS is determined as the environment recognized by the third user U3 and the fourth user U4.

これにより、トリガーイベントが認識される以前には、第3ユーザU3が体感する複合空間(例えば、本実施形態における第1複合空間MS1)と第4ユーザU4が体感する複合空間(例えば、本実施形態における第2複合空間M2)とは、存在する仮想のオブジェクトが互いに独立した複合空間になる。 As a result, before the trigger event is recognized, the complex space experienced by the third user U3 (for example, the first complex space MS1 in this embodiment) and the complex space experienced by the fourth user U4 (for example, The second complex space M2) in the form is a complex space in which existing virtual objects are independent of each other.

一方、トリガーイベントが認識された以後には、第3ユーザU3の体感する複合空間と第4ユーザU4の体感する複合空間とは、存在する仮想のオブジェクトが一致した同一の複合空間(例えば、本実施形態における第1仮想空間MS1)になる。 On the other hand, after the trigger event is recognized, the composite space experienced by the third user U3 and the composite space experienced by the fourth user U4 are the same composite space in which existing virtual objects match (for example, a real object). It becomes the first virtual space MS1) in the embodiment.

したがって、MRシステムS3によれば、トリガーイベントが認識された以後には、複合空間MSに存在するオブジェクトを同期させるための処理が実行されて、第3ユーザU3及び第4ユーザU4に認識させる複合空間MSの環境が同様のものになるので、それまで異なる環境を体感していた第3ユーザU3及び第4ユーザU4が、同様の環境を体感することができるようになる。 Therefore, according to the MR system S3, after the trigger event is recognized, a process for synchronizing the objects existing in the composite space MS is executed to make the third user U3 and the fourth user U4 recognize the composite event. Since the environment of the space MS becomes similar, the third user U3 and the fourth user U4 who have experienced different environments can now experience similar environments.

[第3実施形態の変形例]
なお、本実施形態では、所定のトリガーイベントとして、第3ユーザU3及び第4ユーザU4の一方が他方に触れる動作が、所定のトリガーイベントとして設定されている。
[Modified example of the third embodiment]
Note that, in the present embodiment, an action in which one of the third user U3 and the fourth user U4 touches the other is set as the predetermined trigger event.

これは、第3ユーザU3及び第4ユーザU4の一方が他方に対して実行する所定の動作を所定のトリガーイベントとして設定すると、その動作を行った第3ユーザU3及び第4ユーザU4の一方は、その動作を実行した結果、他方の環境を自らも体感することができることを、直感的に理解することができるようになるためである。 This is because when one of the third user U3 and the fourth user U4 sets a predetermined action to be performed on the other as a predetermined trigger event, one of the third user U3 and the fourth user U4 who performed the action This is because the user can intuitively understand that he/she can also experience the other environment as a result of executing the action.

しかし、第3発明において、所定のトリガーイベントとなる「所定の動作」とは、このような第3ユーザU3及び第4ユーザU4の一方が他方に触れる動作に限定されるものではなく、第3ユーザU3及び第4ユーザU4の一方が他方を基準として行う何らかの動作であればよい。 However, in the third invention, the "predetermined action" that is a predetermined trigger event is not limited to the action of one of the third user U3 and the fourth user U4 touching the other. Any action performed by one of the user U3 and the fourth user U4 with reference to the other is sufficient.

例えば、所定の動作とは、第3ユーザが第4ユーザに接触するような動作、第3ユーザが第4ユーザを基準とした所定の範囲内に移動するような動作、第3ユーザが複合空間に存在する仮想又は実在のオブジェクトを操作する際に、その対象として第4ユーザを選択するような動作(例えば、仮想の携帯端末又は実在の携帯端末のカメラで第4ユーザを撮影するような動作等)等であってもよい。 For example, the predetermined action is an action of the third user contacting the fourth user, an action of the third user moving within a predetermined range with respect to the fourth user, and an action of the third user moving into the complex space. When operating a virtual or real object that exists in a virtual or real object, an action to select the fourth user as the target (for example, an action to take a picture of the fourth user with a camera of a virtual mobile terminal or a real mobile terminal etc.).

また、例えば、仮想のオブジェクトとして、ユーザの動作に対応して動作するものの、複合空間における座標がユーザとは異なるゴーストも生成する場合がある。そのような場合には、そのゴーストに対して所定の動作を行った際にも、ユーザの特性を同期させる処理を実行するようにしてもよい。 Also, for example, a ghost may be generated as a virtual object that moves in accordance with the user's motion, but whose coordinates in the complex space are different from those of the user. In such a case, the process of synchronizing the user characteristics may be executed even when a predetermined action is performed on the ghost.

さらに、第3発明における所定のトリガーイベントは、必ずしも、第3ユーザ及び第4ユーザの一方が第1ユーザ及び第4ユーザの他方に対して実行する所定の動作である必要はない。そのため、例えば、別途設けられたインターフェースを介して、ユーザが複合空間の同期を指示した場合に、その指示を行ったことを、所定のトリガーイベントとしてもよい。 Furthermore, the predetermined trigger event in the third invention does not necessarily have to be a predetermined action performed by one of the third user and the fourth user on the other of the first user and the fourth user. Therefore, for example, when the user gives an instruction to synchronize the complex space via an interface provided separately, the fact that the instruction is given may be set as a predetermined trigger event.

1…標識、2,5…カメラ、3,6…サーバ、4,7…HMD(環境出力器)、30…仮想環境生成部、30a…仮想空間生成部、30b…アバター生成部、31,62…ユーザ動作認識部、31a,62a…ユーザ姿勢認識部、31b,62b…ユーザ座標認識部、32…アバター動作制御部、33…アバター環境決定部、34,64…ユーザ環境決定部、35,65…トリガーイベント認識部、40,70…モニタ、41,71…スピーカ、60…現実空間認識部、61…複合環境生成部、61a…オブジェクト生成部、61b…複合空間生成部、63…オブジェクト制御部、A1…第1アバター、A2…第2アバター、G1…第1ゴースト、G2…第2ゴースト、MS1…第1複合空間、MS2…第2複合空間、O1…第1オブジェクト、O2…第2オブジェクト、O3…第3オブジェクト、O30…花、O31…第1メッセージボード、O4…第4オブジェクト、O40…本、O41…第2メッセージボード、RS…現実空間、S1,S2…VRシステム(仮想空間体感システム)、S3…MRシステム(複合空間体感システム)、U1…第1ユーザ、U2…第2ユーザ、U3…第3ユーザ、U4…第4ユーザ、VS…仮想空間、VS1…第1仮想空間、VS2…第2仮想空間。 Reference Signs 2, 5 Cameras 3, 6 Servers 4, 7 HMD (environment output device) 30 Virtual environment generator 30a Virtual space generator 30b Avatar generator 31, 62 User motion recognition unit 31a, 62a User posture recognition unit 31b, 62b User coordinate recognition unit 32 Avatar motion control unit 33 Avatar environment determination unit 34, 64 User environment determination unit 35, 65 Trigger event recognition unit 40, 70 Monitor 41, 71 Speaker 60 Real space recognition unit 61 Complex environment generation unit 61a Object generation unit 61b Complex space generation unit 63 Object control unit , A1... First avatar, A2... Second avatar, G1... First ghost, G2... Second ghost, MS1... First complex space, MS2... Second complex space, O1... First object, O2... Second object , O3... third object, O30... flower, O31... first message board, O4... fourth object, O40... book, O41... second message board, RS... real space, S1, S2... VR system (virtual space experience system), S3... MR system (multiple spatial experience system), U1... first user, U2... second user, U3... third user, U4... fourth user, VS... virtual space, VS1... first virtual space, VS2 . . . second virtual space.

Claims (1)

第1ユーザ及び第2ユーザを含む複数のユーザが存在する現実空間に対応する第1仮想空間、及び、前記第1仮想空間とは独立し、前記現実空間に対応する第2仮想空間を含む複数の仮想空間を生成する仮想空間生成部と、
前記第1ユーザに対応する第1アバター、前記第2ユーザに対応する第2アバター、及び、前記第1ユーザ又は前記第2ユーザに対応し、前記第1アバター及び前記第2アバターとは独立したアバターであるゴーストを含む複数のアバターを、前記第1仮想空間又は前記第2仮想空間に生成するアバター生成部と、
前記現実空間における前記第1ユーザ及び前記第2ユーザの動作を認識するユーザ動作認識部と、
前記第1ユーザの動作に基づいて、前記仮想空間における前記第1アバターの制御を決定するとともに、前記第2ユーザの動作に基づいて、前記仮想空間における前記第2アバターの動作を制御するアバター動作制御部と、
前記仮想空間における前記第1アバター及び前記第2アバターの環境を決定するアバター環境決定部と、
前記1アバターの環境に基づいて、前記1ユーザに認識させる前記仮想空間の環境を決定するとともに、前記第2アバターの環境に基づいて、前記第2ユーザに認識させる前記仮想空間の環境を決定するユーザ環境決定部と、
所定のトリガーイベントを認識するトリガーイベント認識部と、
前記第1ユーザ及び前記第2ユーザに、前記仮想空間の環境を認識させる環境出力器とを備えている仮想空間体感システムにおいて、
前記所定のトリガーイベントは、前記第1ユーザ及び前記第2ユーザの一方に対応する前記ゴーストに対し、前記第1アバター及び前記第2アバターのうち前記第1ユーザ及び前記第2ユーザの他方に対応するアバターが実行する所定の動作であり、
前記所定のトリガーイベントが認識される以前には、
前記アバター生成部は、前記第1アバターを前記第1仮想空間及び前記第2仮想空間の一方の仮想空間に生成、前記第2アバターを前記第1仮想空間及び前記第2仮想空間の他方の仮想空間に生成し、前記第1ユーザ及び前記第2ユーザの一方に対応する前記ゴーストを、前記第1仮想空間又は前記第2仮想空間のうち前記第1アバター及び前記第2アバターの他方の存在している仮想空間に生成し、
前記アバター環境決定部が、該一方の仮想空間に基づいて、前記第1アバターの環境を決定するとともに、該他方の仮想空間に基づいて、前記第2アバターの環境を決定し、
前記所定のトリガーイベントが認識された以後には、
前記アバター生成部は、前記第1アバター及び前記第2アバターを前記第1仮想空間及び前記第2仮想空間の一方の仮想空間に生成し、
前記アバター環境決定部が、該一方の仮想空間に基づいて、前記第1アバターの環境を決定するとともに、該一方の仮想空間に基づいて、前記第2アバターの環境を決定することを特徴とする仮想空間体感システム。
A first virtual space corresponding to a physical space in which a plurality of users including a first user and a second user exist, and a plurality of second virtual spaces independent of the first virtual space and corresponding to the physical space. a virtual space generation unit that generates a virtual space of
A first avatar corresponding to the first user,PreviousA second avatar corresponding to the second user, and a ghost that corresponds to the first user or the second user and is an avatar independent of the first avatar and the second avataran avatar generation unit that generates a plurality of avatars including in the first virtual space or the second virtual space;
a user action recognition unit that recognizes actions of the first user and the second user in the physical space;
Avatar action for determining control of the first avatar in the virtual space based on the action of the first user, and controlling action of the second avatar in the virtual space based on the action of the second user. a control unit;
an avatar environment determination unit that determines environments of the first avatar and the second avatar in the virtual space;
Make the one user recognize based on the environment of the one avatarof the virtual spaceDetermining an environment and making the second user aware based on the environment of the second avatarof the virtual spacea user environment determination unit that determines the environment;
a trigger event recognition unit that recognizes a predetermined trigger event;
A virtual space experience system comprising an environment output device that allows the first user and the second user to recognize the environment of the virtual space,
The predetermined trigger event corresponds to the ghost corresponding to one of the first user and the second user, and the other of the first user and the second user among the first avatar and the second avatar. is a predetermined action performed by an avatar that performs
Before the predetermined trigger event is recognized,
The avatar generation unit generates the first avatar,generated in one of the first virtual space and the second virtual spacedeath, the second avatar,generated in the other virtual space of the first virtual space and the second virtual space;The ghost corresponding to one of the first user and the second user is placed in the virtual space in which the other of the first avatar and the second avatar exists, out of the first virtual space or the second virtual space. generate and
The avatar environment determination unit determines the environment of the first avatar based on the one virtual space and determines the environment of the second avatar based on the other virtual space;
After the predetermined trigger event is recognized,
The avatar generation unit generates the first avatar and the second avatar,generated in one of the first virtual space and the second virtual space;
The avatar environment determination unit determines the environment of the first avatar based on the one virtual space, and determines the environment of the second avatar based on the one virtual space. Virtual space experience system.
JP2022529032A 2021-08-11 2021-08-11 Virtual space sensory system Active JP7138392B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022084262A JP2023026312A (en) 2021-08-11 2022-05-24 Composite space bodily sensation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/029641 WO2023017584A1 (en) 2021-08-11 2021-08-11 Virtual space experience system and complex space experience system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022084262A Division JP2023026312A (en) 2021-08-11 2022-05-24 Composite space bodily sensation system

Publications (3)

Publication Number Publication Date
JP7138392B1 true JP7138392B1 (en) 2022-09-16
JPWO2023017584A1 JPWO2023017584A1 (en) 2023-02-16
JPWO2023017584A5 JPWO2023017584A5 (en) 2023-07-19

Family

ID=83318379

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022529032A Active JP7138392B1 (en) 2021-08-11 2021-08-11 Virtual space sensory system
JP2022084262A Pending JP2023026312A (en) 2021-08-11 2022-05-24 Composite space bodily sensation system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022084262A Pending JP2023026312A (en) 2021-08-11 2022-05-24 Composite space bodily sensation system

Country Status (2)

Country Link
JP (2) JP7138392B1 (en)
WO (1) WO2023017584A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017244A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Server, method, program, and dynamic image broadcasting system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002312295A (en) * 2001-04-09 2002-10-25 Nec Interchannel Ltd Virtual three-dimensional space conversation system
JP2004199159A (en) * 2002-12-16 2004-07-15 Canon Inc Information processing method, information processing device, program, and recording medium
JP4677269B2 (en) * 2005-04-08 2011-04-27 キヤノン株式会社 Information processing method and system
JP6281496B2 (en) * 2013-02-01 2018-02-21 ソニー株式会社 Information processing apparatus, terminal apparatus, information processing method, and program
JP6538012B2 (en) * 2016-07-20 2019-07-03 株式会社Abal Virtual Space Experience System
JP6220937B1 (en) * 2016-08-26 2017-10-25 株式会社コロプラ Information processing method, program for causing computer to execute information processing method, and computer
JP7060778B2 (en) * 2017-02-28 2022-04-27 キヤノンマーケティングジャパン株式会社 Information processing system, information processing system control method and program
US11514604B2 (en) * 2017-12-15 2022-11-29 Sony Corporation Information processing device and information processing method
JP6711885B2 (en) * 2018-11-06 2020-06-17 キヤノン株式会社 Transmission terminal, reception terminal, transmission/reception system, and its program
JP7029379B2 (en) * 2018-11-28 2022-03-03 株式会社コロプラ Programs, information processing equipment, and methods
JP6936465B1 (en) * 2019-11-13 2021-09-15 株式会社Abal Virtual space experience system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020017244A (en) * 2018-07-25 2020-01-30 株式会社バーチャルキャスト Server, method, program, and dynamic image broadcasting system

Also Published As

Publication number Publication date
WO2023017584A1 (en) 2023-02-16
JP2023026312A (en) 2023-02-24
JPWO2023017584A1 (en) 2023-02-16

Similar Documents

Publication Publication Date Title
JP7366196B2 (en) Widespread simultaneous remote digital presentation world
CN108304063B (en) Information processing apparatus, information processing method, and computer readable medium
US20210286432A1 (en) Information processing device, information processing method, and program
JP7138392B1 (en) Virtual space sensory system
CN116490249A (en) Information processing device, information processing system, information processing method, and information processing terminal
JP7055527B1 (en) Virtual space experience system
JP6933850B1 (en) Virtual space experience system
KR102609850B1 (en) Virtual reality-based audio and visual content production and exhibition systemsS
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220524

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220830

R150 Certificate of patent or registration of utility model

Ref document number: 7138392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150