JP7354466B1 - Information processing systems and programs - Google Patents

Information processing systems and programs Download PDF

Info

Publication number
JP7354466B1
JP7354466B1 JP2023014523A JP2023014523A JP7354466B1 JP 7354466 B1 JP7354466 B1 JP 7354466B1 JP 2023014523 A JP2023014523 A JP 2023014523A JP 2023014523 A JP2023014523 A JP 2023014523A JP 7354466 B1 JP7354466 B1 JP 7354466B1
Authority
JP
Japan
Prior art keywords
user
virtual
space
virtual space
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023014523A
Other languages
Japanese (ja)
Inventor
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2023014523A priority Critical patent/JP7354466B1/en
Application granted granted Critical
Publication of JP7354466B1 publication Critical patent/JP7354466B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】仮想空間の用途の幅を広げる情報処理システム及びプログラムを提供する。【解決手段】情報処理システムは、仮想空間のビューである第1のビューを第1ユーザに提供する制御部310と、現実空間に仮想オブジェクトが配置された複合現実空間のビューである第2のビューを第2ユーザに提供する制御部510と、現実空間における第2ユーザの現在の位置を示す位置情報の入力を受け付けるMR側入力受付部816と、現実空間中の地点と仮想空間中の地点との対応関係を示す情報を記憶する記憶部611と、を備え、制御部310は、仮想空間中の特定の位置で行われている所定の事象に関する第1のビューを第1ユーザに提供し、制御部510は、位置情報が第2ユーザが特定の位置に対応する位置にいることを示すときに、位置情報に応じた仮想空間中の特定の位置で行われている所定の事象が反映された第2のビューを第2ユーザに提供する。【選択図】図9The present invention provides an information processing system and program that expands the range of uses of virtual space. An information processing system includes a control unit 310 that provides a first user with a first view that is a view of a virtual space, and a second view that is a view of a mixed reality space in which virtual objects are arranged in a real space. A control unit 510 that provides a view to the second user, an MR side input reception unit 816 that accepts input of position information indicating the second user's current position in the real space, and a point in the real space and a point in the virtual space. a storage unit 611 that stores information indicating a correspondence relationship between , when the location information indicates that the second user is at a location corresponding to a specific location, the control unit 510 causes the control unit 510 to reflect a predetermined event occurring at a specific location in the virtual space according to the location information. The second view is provided to the second user. [Selection diagram] Figure 9

Description

本発明は、情報処理システムおよびプログラムに関する。 The present invention relates to an information processing system and a program.

従来より、複合現実(MR:Mixed Reality)空間や仮想現実(VR:Virtual Reality)空間をユーザに提供する技術が知られている(例えば、特許文献1および特許文献2参照)。 BACKGROUND ART Conventionally, techniques for providing mixed reality (MR) spaces and virtual reality (VR) spaces to users have been known (for example, see Patent Document 1 and Patent Document 2).

特許第6860488号公報Patent No. 6860488 特許第6800599号公報Patent No. 6800599

ところで、従来より仮想空間の用途の幅を広げることが求められていた。 Incidentally, there has been a demand for expanding the range of uses of virtual space.

本発明は、前記事情に鑑みてなされたものであり、仮想空間の用途の幅を広げることを目的とする。 The present invention has been made in view of the above circumstances, and aims to widen the range of uses of virtual space.

本開示に示す一実施形態によれば、
仮想空間のビューである第1のビューを第1ユーザに提供する第1制御手段と、
現実空間に仮想オブジェクトが配置された複合現実空間のビューである第2のビューを第2ユーザに提供する第2制御手段と、
前記現実空間における前記第2ユーザの現在の位置を示す位置情報を受け付ける入力受付手段と、
前記現実空間と前記仮想空間との位置の対応関係を示す情報を記憶する対応関係記憶手段と、を備え、
前記第1制御手段は、前記仮想空間中の特定の位置で行われている所定の事象に関する前記第1のビューを前記第1ユーザに提供し、
前記第2制御手段は、
前記位置情報に応じた前記第2のビューを前記第2ユーザに提供し、
前記位置情報が前記第2ユーザが前記特定の位置に対応する位置にいることを示すときに、前記仮想空間中の前記特定の位置で行われている前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
情報処理システムが提供される。
According to one embodiment presented in the present disclosure,
a first control means for providing a first user with a first view that is a view of a virtual space;
a second control means for providing a second user with a second view that is a view of a mixed reality space in which virtual objects are placed in the real space;
input receiving means for receiving position information indicating the current position of the second user in the real space;
Correspondence storage means for storing information indicating a correspondence between the positions of the real space and the virtual space,
The first control means provides the first user with the first view regarding a predetermined event occurring at a specific position in the virtual space;
The second control means
providing the second user with the second view according to the location information;
When the location information indicates that the second user is at a location corresponding to the specific location, the second user is configured to reflect the predetermined event taking place at the specific location in the virtual space. An information processing system is provided that provides the second user with a view of:

本発明によれば、仮想空間の用途の幅を広げることができる。 According to the present invention, the range of uses of virtual space can be expanded.

情報処理システムの概略構成を示す図である。1 is a diagram showing a schematic configuration of an information processing system. VRシステムの概略構成を示す図である。FIG. 1 is a diagram showing a schematic configuration of a VR system. MRシステムの概略構成を示す図である。1 is a diagram showing a schematic configuration of an MR system. 仮想空間を概念的に示す図である。FIG. 2 is a diagram conceptually showing a virtual space. 仮想空間において視界領域をX方向から見たYZ断面を示す図である。FIG. 3 is a diagram showing a YZ cross section of a viewing area viewed from the X direction in virtual space. 仮想空間において視界領域をY方向から見たXZ断面を示す図である。FIG. 3 is a diagram showing an XZ cross section of a viewing area viewed from the Y direction in virtual space. コントローラの概略構成を示す図である。FIG. 2 is a diagram showing a schematic configuration of a controller. 複合現実空間および仮想空間について説明するための図である。FIG. 2 is a diagram for explaining mixed reality space and virtual space. 情報処理システムの機能的構成を示す図である。FIG. 1 is a diagram showing a functional configuration of an information processing system. 現実オブジェクトと現実オブジェクトに対応する仮想オブジェクトとについて説明するための図である。FIG. 3 is a diagram for explaining a real object and a virtual object corresponding to the real object. VRシステムの実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process performed by a VR system. MRシステムの実行する処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of processing executed by the MR system. MRユーザの行動を仮想空間に反映させる処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of a process for reflecting an MR user's behavior in a virtual space. VRユーザの行動を複合現実空間に反映させる処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of a process for reflecting a VR user's behavior in a mixed reality space. 仮想空間における事象の現実空間への反映について説明するための図である。FIG. 3 is a diagram for explaining the reflection of an event in virtual space in real space. 現実空間における事象の仮想空間への反映について説明するための図である。FIG. 3 is a diagram for explaining the reflection of an event in real space in virtual space.

以下、図面を参照しながら本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.

[第1の実施形態]
<情報処理システムの構成>
図1に示されるように、本実施形態の情報処理システム100は、VR(Virtual Reality)システム200と、MR(Mixed Reality)システム400と、サーバ600と、外部機器700と、を備えている。VRシステム200は、ネットワーク2を介してサーバ600、MRシステム400、および外部機器700と通信可能に構成される。また、MRシステム400は、ネットワーク2を介してサーバ600、VRシステム200、および外部機器700と通信可能に構成される。情報処理システム100を構成するMRシステム400の数は、1つに限られず、複数存在してもよい。また、情報処理システム100を構成するVRシステム200の数は、1つに限られず、複数存在してもよい。なお、本実施形態では、VRシステム200とMRシステム400とのネットワーク2を介した通信は、サーバ600を介して行われるが、サーバ600を介さずに行われてもよい。なお、ネットワーク2は、例えば、インターネット、移動通信システム(例えば、3G、4G、5G、LTE(Long Term Evolution)等)、Wi-Fi(登録商標)、Bluetooth(登録商標)、その他の通信回線、またはこれらの組み合わせ等のいずれによって構成されていてもよい。
[First embodiment]
<Configuration of information processing system>
As shown in FIG. 1, the information processing system 100 of this embodiment includes a VR (Virtual Reality) system 200, an MR (Mixed Reality) system 400, a server 600, and an external device 700. The VR system 200 is configured to be able to communicate with the server 600, the MR system 400, and the external device 700 via the network 2. Further, the MR system 400 is configured to be able to communicate with the server 600, the VR system 200, and the external device 700 via the network 2. The number of MR systems 400 that constitute the information processing system 100 is not limited to one, and a plurality of MR systems may exist. Further, the number of VR systems 200 configuring the information processing system 100 is not limited to one, and a plurality of VR systems 200 may exist. Note that in this embodiment, communication between the VR system 200 and the MR system 400 via the network 2 is performed via the server 600, but may be performed without using the server 600. Note that the network 2 includes, for example, the Internet, a mobile communication system (for example, 3G, 4G, 5G, LTE (Long Term Evolution), etc.), Wi-Fi (registered trademark), Bluetooth (registered trademark), other communication lines, Alternatively, it may be configured by any combination of these.

(VRシステムの構成)
図2に示されるように、VRシステム200は、VR装置210と、コンピュータ300と、検出装置260と、ディスプレイ270と、コントローラ280とを備える。VR装置210は、ディスプレイ211と、注視センサ212と、第1カメラ213と、第2カメラ214と、マイク215と、スピーカ216と、センサ217と、を備える。以下、VR装置210を使用するユーザを、VRユーザと呼ぶ。
(VR system configuration)
As shown in FIG. 2, the VR system 200 includes a VR device 210, a computer 300, a detection device 260, a display 270, and a controller 280. The VR device 210 includes a display 211, a gaze sensor 212, a first camera 213, a second camera 214, a microphone 215, a speaker 216, and a sensor 217. Hereinafter, the user who uses the VR device 210 will be referred to as a VR user.

コンピュータ300は、インターネットその他のネットワーク2に接続可能であり、例えば、ネットワーク2に接続されているサーバ600、MRシステム400のコンピュータ、およびその他のコンピュータと通信可能である。その他のコンピュータとしては、例えば、他のVRシステム200のコンピュータや外部機器700等が挙げられる。 The computer 300 can be connected to the Internet or other network 2, and can communicate with, for example, the server 600, the computer of the MR system 400, and other computers connected to the network 2. Examples of other computers include computers of other VR systems 200, external equipment 700, and the like.

VR装置210は、VRユーザの頭部に装着され、動作中に仮想空間をVRユーザに提供し得る。VR装置210は、例えば、ディスプレイを備える所謂ヘッドマウントディスプレイであってもよく、スマートフォンその他のディスプレイを有する端末が装着されたヘッドマウント機器等であってもよい。VR装置210は、例えば、右目用の画像および左目用の画像をディスプレイ211にそれぞれ表示する。VRユーザの各目がそれぞれの画像を視認すると、VRユーザは、両目の視差に基づき当該画像を3次元画像として認識し得る。 The VR device 210 can be worn on the head of a VR user and provide a virtual space to the VR user during operation. The VR device 210 may be, for example, a so-called head-mounted display including a display, or may be a head-mounted device equipped with a smartphone or other terminal having a display. For example, the VR device 210 displays an image for the right eye and an image for the left eye on the display 211. When each eye of the VR user views a respective image, the VR user can recognize the image as a three-dimensional image based on the parallax between the eyes.

ディスプレイ211は、例えば、非透過型の表示装置として実現される。ディスプレイ211は、例えば、VRユーザの両目の前方に位置するようにVR装置210の本体に配置されている。したがって、VRユーザは、ディスプレイ211に表示される3次元画像を視認すると、仮想空間に没入することができる。なお、ディスプレイ211は、所謂スマートフォンその他の端末が備えるディスプレイ等によって実現されてもよい。 The display 211 is realized, for example, as a non-transmissive display device. The display 211 is arranged, for example, on the main body of the VR device 210 so as to be located in front of both eyes of the VR user. Therefore, when the VR user views the three-dimensional image displayed on the display 211, the VR user can immerse himself in the virtual space. Note that the display 211 may be realized by a display included in a so-called smartphone or other terminal.

検出装置260は、VR装置210を使用するVRユーザの動きを検出する。検出装置260は、VR装置210の動きを検出するためのポジショントラッキング機能を有し、これによりVRユーザの動きを検出するものであってもよい。具体的には、検出装置260は、例えば、VRユーザの動きを検出するためのセンサとして、VR装置210からの光(例えば、赤外光)を読み取るセンサを有し、現実空間内におけるVR装置210の位置や傾き等を検出するものであってもよい。この場合に、VR装置210は、図示せぬ複数の光源を有していてもよい。また、各光源は例えば、赤外光を発するLED(Light Emitting Diode)により実現されてもよい。 Detection device 260 detects the movement of a VR user using VR device 210. The detection device 260 may have a position tracking function for detecting the movement of the VR device 210, thereby detecting the movement of the VR user. Specifically, the detection device 260 has a sensor that reads light (for example, infrared light) from the VR device 210 as a sensor for detecting the movement of the VR user, and detects the movement of the VR device in the real space. It may be possible to detect the position, inclination, etc. of 210. In this case, the VR device 210 may include a plurality of light sources (not shown). Further, each light source may be realized by, for example, an LED (Light Emitting Diode) that emits infrared light.

また、検出装置260は、例えば、カメラにより実現されてもよい。具体的には、検出装置260は、VRユーザの動きを検出するためのセンサとして、イメージセンサ(例えば、RGB画像を取得するイメージセンサ、白黒画像を取得するイメージセンサ、またはデプスセンサ等)を有するものであってもよい。換言すると、VRユーザの動きは、カメラによって検出されてもよい。検出装置260は、例えば、赤外光や所定のパターンの光等の所定の光を放射する装置と、イメージセンサ(例えば、デプスセンサ)とを備えるデプスカメラ等であり、当該装置から放射された光の反射光を当該イメージセンサにより検出し、イメージセンサからの出力に基づいて、VRユーザの位置や姿勢等を検出するもの等であってもよい。また、検出装置460は、このようなデプスカメラとRGB画像が取得可能なカメラとを備えるものであり、これらのカメラからの出力に基づいて、VRユーザの位置や姿勢等を検出するもの等であってもよい。また、検出装置260は、例えば、複数のイメージセンサを備えるステレオカメラ等であり、複数のイメージセンサからの出力に基づいて、VRユーザの位置や姿勢等を検出するもの等であってもよい。なお、VRユーザの位置や姿勢等の検出とは、VRユーザの体の位置や姿勢等の検出であってもよく、VR装置210の位置や傾き等の検出であってもよい。 Further, the detection device 260 may be realized by, for example, a camera. Specifically, the detection device 260 has an image sensor (for example, an image sensor that acquires an RGB image, an image sensor that acquires a monochrome image, or a depth sensor) as a sensor for detecting the movement of the VR user. It may be. In other words, the VR user's movements may be detected by the camera. The detection device 260 is, for example, a depth camera that includes a device that emits predetermined light such as infrared light or light with a predetermined pattern, and an image sensor (for example, a depth sensor), and detects the light emitted from the device. The image sensor may detect the reflected light of the image sensor, and the position, posture, etc. of the VR user may be detected based on the output from the image sensor. Further, the detection device 460 includes such a depth camera and a camera capable of acquiring RGB images, and detects the position, posture, etc. of the VR user based on the output from these cameras. There may be. Further, the detection device 260 may be, for example, a stereo camera including a plurality of image sensors, and may be one that detects the position, posture, etc. of the VR user based on outputs from the plurality of image sensors. Note that the detection of the position, posture, etc. of the VR user may be the detection of the position, posture, etc. of the VR user's body, or may be the detection of the position, tilt, etc. of the VR device 210.

なお、VRシステム200は、検出装置260として、1または複数種類の検出装置を有していてもよく、各種類の検出装置を複数有していてもよい。また、VRシステム200は、検出装置260を有していなくてもよい。なお、検出装置260の一部がコンピュータ300等によって構成されてもよい。例えば、イメージセンサからの出力の解析(例えば、画像認識等)は、コンピュータ300等で行われてもよい。 Note that the VR system 200 may have one or more types of detection devices as the detection device 260, or may have a plurality of each type of detection device. Furthermore, the VR system 200 does not need to include the detection device 260. Note that a part of the detection device 260 may be configured by the computer 300 or the like. For example, analysis of the output from the image sensor (eg, image recognition, etc.) may be performed by the computer 300 or the like.

なお、検出装置260は、上述の各種センサ等に加え、検出装置260自身の位置や傾き等を検出可能なセンサを有していてもよい。具体的には、例えば、検出装置260は、角速度センサ(例えば、3軸角速度センサ)、加速度センサ(例えば、3軸加速度センサ)、または地磁気センサ(例えば、3軸地磁気センサ)等を有していてもよい。また、これらのセンサからの出力は、コンピュータ300等に送られ、例えば、検出装置260の備えるイメージセンサからの出力に基づいて所定の処理が行われる際等に使用されてもよい。 In addition to the various sensors described above, the detection device 260 may include a sensor capable of detecting the position, inclination, etc. of the detection device 260 itself. Specifically, for example, the detection device 260 includes an angular velocity sensor (for example, a 3-axis angular velocity sensor), an acceleration sensor (for example, a 3-axis acceleration sensor), a geomagnetic sensor (for example, a 3-axis geomagnetic sensor), or the like. It's okay. Further, the outputs from these sensors may be sent to the computer 300 or the like, and may be used, for example, when predetermined processing is performed based on the outputs from the image sensor included in the detection device 260.

また、VR装置210は、VRユーザの動きを検出する検出手段として、検出装置260の代わりに、あるいは検出装置260に加えてセンサ217を備えてもよい。VR装置210は、センサ217を用いて、VR装置210自身の位置および傾きを検出し得る。センサ217は、例えば、角速度センサ(例えば、3軸角速度センサ)、加速度センサ(例えば、3軸加速度センサ)、または地磁気センサ(例えば、3軸地磁気センサ)等であってもよい。また、VR装置210は、センサ217として、1または複数種類のセンサを有していてもよく、各種類のセンサを複数有していてもよい。一例として、センサ217として角速度センサを用いた場合、VR装置210は、現実空間におけるVR装置210の3軸周りの角速度を経時的に検出できる。そして、VR装置210は、各角速度に基づいて、VR装置210の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、VR装置210の傾きを算出すること等ができる。また、センサ217は、例えば、イメージセンサであってもよい。そして、当該イメージセンサからの出力に基づいて、VRユーザの位置や姿勢等を検出してもよい。換言すると、VRユーザの位置や姿勢等は、VR装置210の備えるVR装置210の周囲を撮影するカメラからの情報等に基づいて検出されてもよい。換言すると、VR装置210のトラッキングは、アウトサイドイン方式によって行われてもよく、インサイドアウト方式によって行われてもよい。 Further, the VR device 210 may include a sensor 217 instead of or in addition to the detection device 260 as a detection means for detecting the movement of the VR user. The VR device 210 can use the sensor 217 to detect the position and tilt of the VR device 210 itself. The sensor 217 may be, for example, an angular velocity sensor (for example, a 3-axis angular velocity sensor), an acceleration sensor (for example, a 3-axis acceleration sensor), a geomagnetic sensor (for example, a 3-axis geomagnetic sensor), or the like. Further, the VR device 210 may have one or more types of sensors as the sensor 217, or may have a plurality of each type of sensor. As an example, when an angular velocity sensor is used as the sensor 217, the VR device 210 can detect the angular velocity around three axes of the VR device 210 in real space over time. Then, the VR device 210 calculates the temporal change in the angle of the VR device 210 around the three axes based on each angular velocity, and further calculates the tilt of the VR device 210 based on the temporal change in the angle. etc. can be done. Further, the sensor 217 may be, for example, an image sensor. Then, the position, posture, etc. of the VR user may be detected based on the output from the image sensor. In other words, the position, posture, etc. of the VR user may be detected based on information etc. from a camera included in the VR device 210 that photographs the surroundings of the VR device 210. In other words, tracking of the VR device 210 may be performed using an outside-in method or an inside-out method.

注視センサ212は、VRユーザの右目および左目の視線が向けられる方向を検出する。すなわち、注視センサ212は、VRユーザの視線(換言すると、目の動き)を検出する。視線の方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ212は、当該アイトラッキング機能を有するセンサにより実現される。注視センサ212は、右目用のセンサおよび左目用のセンサを含んでいてもよい。注視センサ212は、例えば、VRユーザの右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。この場合、注視センサ212は、検出した各回転角に基づいて、VRユーザの視線を検出することができる。 Gaze sensor 212 detects the direction in which the VR user's right and left eyes are directed. That is, the gaze sensor 212 detects the VR user's line of sight (in other words, eye movement). Detection of the direction of the line of sight is realized, for example, by a known eye tracking function. The gaze sensor 212 is realized by a sensor having the eye tracking function. Gaze sensor 212 may include a right eye sensor and a left eye sensor. The gaze sensor 212 may be, for example, a sensor that irradiates infrared light to the right and left eyes of the VR user and detects the rotation angle of each eyeball by receiving reflected light from the cornea and iris of the irradiated light. . In this case, the gaze sensor 212 can detect the VR user's line of sight based on each detected rotation angle.

第1カメラ213は、VRユーザの顔の下部を撮影する。より具体的には、第1カメラ213は、VRユーザの鼻および口などを撮影する。第2カメラ214は、VRユーザの目および眉などを撮影する。ここで、VR装置210の筐体のVRユーザ側をVR装置210の内側、VR装置210の筐体のVRユーザとは逆側をVR装置210の外側と定義する。第1カメラ213は、VR装置210の外側に配置され、第2カメラ214は、VR装置210の内側に配置されてもよい。第1カメラ213および第2カメラ214により撮影された画像は、コンピュータ300に入力される。なお、第1カメラ213と第2カメラ214とを1台のカメラとして実現し、この1台のカメラでVRユーザの顔を撮影してもよい。 The first camera 213 photographs the lower part of the VR user's face. More specifically, the first camera 213 photographs the nose, mouth, etc. of the VR user. The second camera 214 photographs the eyes, eyebrows, etc. of the VR user. Here, the VR user side of the housing of the VR device 210 is defined as the inside of the VR device 210, and the side of the housing of the VR device 210 opposite to the VR user is defined as the outside of the VR device 210. The first camera 213 may be placed outside the VR device 210, and the second camera 214 may be placed inside the VR device 210. Images captured by the first camera 213 and the second camera 214 are input to the computer 300. Note that the first camera 213 and the second camera 214 may be implemented as one camera, and the face of the VR user may be photographed with this one camera.

音入力手段としてのマイク215は、VRユーザの声を音信号(換言すると、電気信号)に変換してコンピュータ300に出力する。音出力手段としてのスピーカ216は、音信号を音に変換してVRユーザに出力する。なお、VR装置210は、音出力手段としてスピーカ216に代えてイヤホンを含んでいてもよい。 The microphone 215 serving as a sound input means converts the voice of the VR user into a sound signal (in other words, an electrical signal) and outputs it to the computer 300. The speaker 216 as a sound output means converts the sound signal into sound and outputs it to the VR user. Note that the VR device 210 may include earphones instead of the speaker 216 as a sound output means.

ディスプレイ270は、ディスプレイ211に表示されている画像と同様の画像を表示する。これにより、VR装置210を装着しているVRユーザ以外のユーザにも当該VRユーザと同様の画像(換言すると仮想空間)を視聴させることができる。ディスプレイ270に表示される画像は、3次元画像である必要はなく、例えば、VR装置210で表示される右目用の画像や左目用の画像であってもよい。ディスプレイ270としては、例えば、液晶ディスプレイや有機ELディスプレイなどが挙げられる。 Display 270 displays an image similar to the image displayed on display 211. This allows users other than the VR user wearing the VR device 210 to view the same images (in other words, virtual space) as the VR user. The image displayed on the display 270 does not need to be a three-dimensional image, and may be, for example, an image for the right eye or an image for the left eye displayed on the VR device 210. Examples of the display 270 include a liquid crystal display and an organic EL display.

コントローラ280は、有線または無線によりコンピュータ300に接続されている。コントローラ280は、VRユーザからコンピュータ300への指示に係る入力操作を受け付ける。また、コントローラ280は、仮想空間に配置される仮想オブジェクトの位置や動きを制御するためのVRユーザによる入力操作を受け付ける。コントローラ280は、例えば、VRユーザによって把持可能に構成されてもよい。また、コントローラ280は、例えば、VRユーザの身体あるいは衣類の一部に装着可能に構成されてもよい。具体的には、コントローラ280は、例えば、手袋型等であってもよい。また、コントローラ280は、コンピュータ300から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力可能に構成されてもよい。 Controller 280 is connected to computer 300 by wire or wirelessly. The controller 280 accepts input operations related to instructions from the VR user to the computer 300. Further, the controller 280 accepts input operations by the VR user for controlling the position and movement of virtual objects placed in the virtual space. The controller 280 may be configured to be graspable by a VR user, for example. Further, the controller 280 may be configured to be able to be attached to a part of the VR user's body or clothing, for example. Specifically, the controller 280 may be, for example, glove-shaped. Further, the controller 280 may be configured to be able to output at least one of vibration, sound, and light based on a signal transmitted from the computer 300.

また、コントローラ280は、複数の光源を有していてもよい。各光源は例えば、赤外光を発するLEDにより実現されてもよい。そして、検出装置260は、コントローラ280からの赤外光を読み取り、現実空間内におけるコントローラ280の位置および傾き等を検出してもよい。換言すると、検出装置260は、コントローラ280の動きを検出するポジショントラッキング機能を有し、これによりVRユーザの動きを検出するものであってもよい。 Further, the controller 280 may include multiple light sources. Each light source may be realized by, for example, an LED that emits infrared light. Then, the detection device 260 may read the infrared light from the controller 280 and detect the position, tilt, etc. of the controller 280 in the real space. In other words, the detection device 260 may have a position tracking function that detects the movement of the controller 280, thereby detecting the movement of the VR user.

なお、VRシステム200は、コントローラ280を有していなくてもよい。 Note that the VR system 200 does not need to include the controller 280.

また、情報処理システム100は、VRユーザの動きを検出するセンサ286を有していてもよい。センサ286は、例えば、角速度センサ、加速度センサ、または地磁気センサであってもよい。また、センサ286は、例えば、コントローラ280に設けられていてもよい(図7参照)。なお、情報処理システム100は、センサ286として、1または複数種類のセンサを有していてもよく、各種類のセンサを複数有していてもよい。また、センサ286を備える装置(例えば、コントローラ280や所定のカメラ等)と、コンピュータ300とは、例えば、無線により互いに接続されてもよい。そして、センサ286により取得された情報は、例えば、無線通信によりコンピュータ300に送信されてもよい。 Furthermore, the information processing system 100 may include a sensor 286 that detects the movement of the VR user. Sensor 286 may be, for example, an angular velocity sensor, an acceleration sensor, or a geomagnetic sensor. Further, the sensor 286 may be provided in the controller 280, for example (see FIG. 7). Note that the information processing system 100 may have one or more types of sensors as the sensor 286, or may have a plurality of each type of sensor. Furthermore, a device including the sensor 286 (for example, the controller 280, a predetermined camera, etc.) and the computer 300 may be connected to each other wirelessly, for example. The information acquired by sensor 286 may then be transmitted to computer 300 via wireless communication, for example.

また、VRユーザの位置や動きは、VR装置210が、所定の無線通信(例えば、Wi-Fi通信、Bluetooth通信、またはUWB(Ultra Wide Band)通信などの近距離無線通信)を行う装置を備え、当該装置と周囲の機器とが無線通信を行いVR装置210の位置情報を取得することにより検出されてもよい。 Further, the position and movement of the VR user can be determined by the VR device 210 equipped with a device that performs predetermined wireless communication (for example, short-range wireless communication such as Wi-Fi communication, Bluetooth communication, or UWB (Ultra Wide Band) communication). , the VR device 210 may be detected by performing wireless communication between the device and surrounding devices and acquiring position information of the VR device 210.

また、VRユーザの位置や動きは、VRユーザが身につけるデバイス等(例えば、時計型、リストバンド型、指輪型、もしくは衣服型等のウェアラブルデバイス、または体内埋め込み型のデバイス等)の、VRユーザの動きをトラッキング可能とする外部機器700(および当該機器と近距離無線通信等により連携してVRユーザの動きをトラッキングする機器)を用いて検出されてもよい。また、これらの外部機器700をコントローラ280として使用してもよい。また、VRユーザの位置や動きは、GPSセンサ等によって検出されてもよい。 In addition, the position and movement of the VR user can be determined by using a device worn by the VR user (for example, a watch-type, wristband-type, ring-type, or clothing-type wearable device, or a device implanted in the body). The detection may be performed using an external device 700 that is capable of tracking the user's movement (and a device that tracks the VR user's movement in cooperation with the device through short-range wireless communication or the like). Further, these external devices 700 may be used as the controller 280. Further, the position and movement of the VR user may be detected by a GPS sensor or the like.

(コンピュータ300の構成)
図2に示されるように、コンピュータ300は、主たる構成要素として、プロセッサ301と、メモリ302と、ストレージ303と、入出力インターフェース304と、通信インターフェース305とを備える。各構成要素は、それぞれ、バスによって互いに接続されている。
(Configuration of computer 300)
As shown in FIG. 2, the computer 300 includes a processor 301, a memory 302, a storage 303, an input/output interface 304, and a communication interface 305 as main components. Each component is connected to each other by a bus.

プロセッサ301は、VR装置210の動作を制御する。プロセッサ301は、ストレージ303からプログラムを読み出し、メモリ302に展開する。プロセッサ301は、展開したプログラムを実行する。プロセッサ301は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processor Unit)、およびFPGA(Field-Programmable Gate Array)等のうちの1種類以上を含んで構成され得る。 Processor 301 controls the operation of VR device 210. The processor 301 reads the program from the storage 303 and expands it into the memory 302. Processor 301 executes the developed program. The processor 301 may be configured to include one or more types of, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processor Unit), and an FPGA (Field-Programmable Gate Array).

メモリ302は、主記憶装置である。メモリ302は、例えば、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置により構成される。メモリ302は、プロセッサ301がストレージ303から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ301に作業領域を提供する。メモリ302は、プロセッサ301がプログラムに従って動作している間に生成した各種データやコンピュータ300に入力された各種データ等も一時的に記憶する。 Memory 302 is a main storage device. The memory 302 is configured of storage devices such as ROM (Read Only Memory) and RAM (Random Access Memory). The memory 302 provides a work area to the processor 301 by temporarily storing programs and various data that the processor 301 reads from the storage 303. The memory 302 also temporarily stores various data generated while the processor 301 is operating according to a program, various data input to the computer 300, and the like.

ストレージ303は、補助記憶装置である。ストレージ303は、例えば、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置により構成される。ストレージ303には、情報処理システム100においてサービスを提供するためのプログラムが格納される。また、ストレージ303には、情報処理システム100においてサービスを提供するための各種データが格納される。ストレージ303に格納されるデータには、仮想空間を規定するためのデータおよび仮想オブジェクトに関するデータ等が含まれる。 Storage 303 is an auxiliary storage device. The storage 303 is configured of a storage device such as a flash memory or an HDD (Hard Disk Drive), for example. The storage 303 stores programs for providing services in the information processing system 100. Further, the storage 303 stores various data for providing services in the information processing system 100. The data stored in the storage 303 includes data for defining a virtual space, data regarding virtual objects, and the like.

なお、ストレージ303は、メモリカードのように着脱可能な記憶装置として実現されてもよい。また、コンピュータ300に内蔵されたストレージ303の代わりに、外部の記憶装置に保存されているプログラムおよびデータが使用される構成であってもよい。 Note that the storage 303 may be realized as a removable storage device such as a memory card. Furthermore, instead of the storage 303 built into the computer 300, programs and data stored in an external storage device may be used.

入出力インターフェース304は、コンピュータ300がデータの入力を受け付けるためのインターフェースであるとともに、コンピュータ300がデータを出力するためのインターフェースである。入出力インターフェース304は、VR装置210、検出装置260、およびディスプレイ270との間でデータの送信または受信をし得る。また、VR装置210に含まれるディスプレイ211、注視センサ212、第1カメラ213、第2カメラ214、マイク215、スピーカ216、およびセンサ217との間でデータの送信または受信をしてもよい。 The input/output interface 304 is an interface through which the computer 300 receives data input, and an interface through which the computer 300 outputs data. The input/output interface 304 can send or receive data to/from the VR device 210, the detection device 260, and the display 270. Furthermore, data may be transmitted to or received from the display 211, gaze sensor 212, first camera 213, second camera 214, microphone 215, speaker 216, and sensor 217 included in the VR device 210.

なお、入出力インターフェース304は、コントローラ280との間でデータの送信または受信をしてもよい。例えば、入出力インターフェース304は、コントローラ280およびセンサ286から出力された信号の入力を受けてもよい。また、入出力インターフェース304は、プロセッサ301から出力された命令を、コントローラ280に送信してもよい。当該命令は、振動、音出力、発光等をコントローラ280に指示するものであってもよい。コントローラ280は、当該命令を受信すると、命令に応じて、振動、音出力または発光等を行う。 Note that the input/output interface 304 may transmit or receive data to/from the controller 280. For example, input/output interface 304 may receive input of signals output from controller 280 and sensor 286. Further, the input/output interface 304 may transmit instructions output from the processor 301 to the controller 280. The command may instruct the controller 280 to vibrate, output sound, emit light, or the like. Upon receiving the command, the controller 280 performs vibration, sound output, light emission, etc. in accordance with the command.

なお、VR装置210、検出装置260、ディスプレイ270、コントローラ280、およびセンサ286のそれぞれとコンピュータ300とは、有線接続されてもよく、無線接続されてもよい。 Note that each of the VR device 210, the detection device 260, the display 270, the controller 280, and the sensor 286 and the computer 300 may be connected by wire or wirelessly.

通信インターフェース305は、他のコンピュータ(例えば、サーバ600、コンピュータ500、または他のコンピュータ300等)とのネットワーク2を介した各種データの送受信を制御する。 The communication interface 305 controls transmission and reception of various data via the network 2 with other computers (for example, the server 600, the computer 500, or the other computer 300, etc.).

プロセッサ301は、ストレージ303にアクセスし、ストレージ303に格納されているプログラムをメモリ302に展開し、当該プログラムに含まれる一連の命令を実行する。また、プロセッサ301は、入出力インターフェース304を介して、仮想空間を提供するための信号をVR装置210に送る。 The processor 301 accesses the storage 303, loads the program stored in the storage 303 into the memory 302, and executes a series of instructions included in the program. Further, the processor 301 sends a signal for providing a virtual space to the VR device 210 via the input/output interface 304.

なお、コンピュータ300はVR装置210の外部に設けられていてもよく、コンピュータ300の一部または全体がVR装置210に内蔵されてもよい。また、ディスプレイ211を含む携帯型の端末(例えば、スマートフォン)がコンピュータ300の少なくとも一部として機能してもよい。なお、VR装置210が複数存在する場合に、コンピュータ300は、各VR装置210に対して設けられていてもよく、複数のVR装置210に対して共通して用いられてもよい。 Note that the computer 300 may be provided outside the VR device 210, or part or all of the computer 300 may be built into the VR device 210. Further, a portable terminal (for example, a smartphone) including the display 211 may function as at least a part of the computer 300. Note that when a plurality of VR apparatuses 210 exist, the computer 300 may be provided for each VR apparatus 210 or may be used in common for the plurality of VR apparatuses 210.

(座標系)
VRシステム200では、現実空間における座標系である実座標系が予め設定されている。実座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、並びに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。
(Coordinate system)
In the VR system 200, a real coordinate system that is a coordinate system in real space is set in advance. The real coordinate system has three reference directions (axes) that are parallel to a vertical direction in real space, a horizontal direction perpendicular to the vertical direction, and a front-back direction perpendicular to both the vertical direction and the horizontal direction.

現実空間内におけるVR装置210の位置や傾きは、検出装置260やセンサ217によって検出できる。検出されるVR装置210の傾きは、例えば、実座標系におけるVR装置210の3軸周りの各傾きに相当する。コンピュータ300は、実座標系におけるVR装置210の傾きに基づき、uvw視野座標系をVR装置210に設定する(図4参照)。VR装置210に設定されるuvw視野座標系は、VR装置210を装着したVRユーザが仮想空間において物体を見る際の視点座標系に対応する。 The position and tilt of the VR device 210 in real space can be detected by the detection device 260 and the sensor 217. The detected tilt of the VR device 210 corresponds to each tilt of the VR device 210 around three axes in the real coordinate system, for example. The computer 300 sets the uvw visual field coordinate system to the VR device 210 based on the inclination of the VR device 210 in the real coordinate system (see FIG. 4). The uvw visual field coordinate system set in the VR device 210 corresponds to the viewpoint coordinate system when a VR user wearing the VR device 210 views an object in the virtual space.

ここで、uvw視野座標系について説明する。コンピュータ300は、VR装置210を装着したVRユーザの頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、コンピュータ300は、実座標系を規定する水平方向、鉛直方向、および前後方向を、実座標系内においてVR装置210の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、VR装置210におけるuvw視野座標系のピッチ軸(u軸)、ヨー軸(v軸)、およびロール軸(w軸)として設定する。 Here, the uvw visual field coordinate system will be explained. The computer 300 sets a three-dimensional uvw visual field coordinate system centered on the head of the VR user wearing the VR device 210 (origin). More specifically, the computer 300 tilts the horizontal direction, vertical direction, and front-rear direction that define the real coordinate system by the tilt of the VR device 210 around each axis within the real coordinate system. The three newly obtained directions are set as the pitch axis (u axis), yaw axis (v axis), and roll axis (w axis) of the uvw visual field coordinate system in the VR device 210.

例えば、VR装置210を装着したVRユーザが直立し、かつ、正面を視認している場合、プロセッサ301は、実座標系に平行な視野座標系をVR装置210に設定する。この場合、実座標系における水平方向、鉛直方向、および前後方向は、VR装置210における視野座標系のピッチ軸(u軸)、ヨー軸(v軸)、およびロール軸(w軸)に一致する。 For example, when a VR user wearing the VR device 210 is standing upright and viewing the front, the processor 301 sets a visual field coordinate system parallel to the real coordinate system in the VR device 210. In this case, the horizontal direction, vertical direction, and longitudinal direction in the real coordinate system coincide with the pitch axis (u axis), yaw axis (v axis), and roll axis (w axis) of the visual field coordinate system in the VR device 210. .

uvw視野座標系がVR装置210に設定された後、検出装置260またはセンサ217は、VR装置210の動きに基づいて、設定されたuvw視野座標系におけるVR装置210の傾きを検出できる。この場合、検出装置260またはセンサ217は、VR装置210の傾きとして、uvw視野座標系におけるVR装置210のピッチ角、ヨー角、およびロール角をそれぞれ検出する。ピッチ角は、uvw視野座標系におけるピッチ軸周りのVR装置210の傾き角度を表す。ヨー角は、uvw視野座標系におけるヨー軸周りのVR装置210の傾き角度を表す。ロール角は、uvw視野座標系におけるロール軸周りのVR装置210の傾き角度を表す。 After the uvw visual field coordinate system is set in the VR device 210, the detection device 260 or sensor 217 can detect the tilt of the VR device 210 in the set uvw visual field coordinate system based on the movement of the VR device 210. In this case, the detection device 260 or the sensor 217 detects the pitch angle, yaw angle, and roll angle of the VR device 210 in the uvw visual field coordinate system as the inclination of the VR device 210, respectively. The pitch angle represents the tilt angle of the VR device 210 around the pitch axis in the uvw viewing coordinate system. The yaw angle represents the tilt angle of the VR device 210 around the yaw axis in the uvw viewing coordinate system. The roll angle represents the tilt angle of the VR device 210 around the roll axis in the uvw viewing coordinate system.

コンピュータ300は、検出されたVR装置210の傾きに基づいて、VR装置210が動いた後のVR装置210におけるuvw視野座標系を、VR装置210に設定する。VR装置210と、VR装置210のuvw視野座標系との関係は、VR装置210の位置および傾きに関わらず、常に一定である。VR装置210の位置および傾きが変わると、当該位置および傾きの変化に連動して、実座標系におけるVR装置210のuvw視野座標系の位置および傾きが変化する。 Based on the detected tilt of the VR device 210, the computer 300 sets in the VR device 210 a uvw visual field coordinate system in the VR device 210 after the VR device 210 moves. The relationship between the VR device 210 and the uvw visual field coordinate system of the VR device 210 is always constant regardless of the position and tilt of the VR device 210. When the position and inclination of the VR device 210 change, the position and inclination of the uvw visual field coordinate system of the VR device 210 in the real coordinate system change in conjunction with the change in the position and inclination.

なお、検出装置260は、VR装置210の現実空間内における位置を、検出装置260に対する相対位置として特定してもよい。また、プロセッサ301は、特定された相対位置に基づいて、現実空間内(実座標系)におけるVR装置210のuvw視野座標系の原点を決定してもよい。 Note that the detection device 260 may specify the position of the VR device 210 in the real space as a relative position with respect to the detection device 260. Furthermore, the processor 301 may determine the origin of the uvw visual field coordinate system of the VR device 210 in the real space (real coordinate system) based on the specified relative position.

(仮想空間)
図4を参照して、仮想空間についてさらに説明する。図4は、ある実施の形態に従う仮想空間11を表現する一態様を概念的に表す図である。仮想空間11は、中心12の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間11のうちの上半分の天球が例示されている。仮想空間11では各メッシュが規定される。各メッシュの位置は、仮想空間11に規定されるグローバル座標系であるXYZ座標系における座標値として予め規定されている。コンピュータ300は、仮想空間11に展開可能なパノラマ画像13(静止画、動画等)を構成する各部分画像を、仮想空間11において対応する各メッシュにそれぞれ対応付ける。
(Virtual space)
The virtual space will be further explained with reference to FIG. 4. FIG. 4 is a diagram conceptually representing one aspect of representing the virtual space 11 according to an embodiment. The virtual space 11 has a spherical structure that covers the entire 360 degree direction of the center 12. In FIG. 4, the celestial sphere in the upper half of the virtual space 11 is illustrated in order not to complicate the explanation. In the virtual space 11, each mesh is defined. The position of each mesh is predefined as a coordinate value in an XYZ coordinate system, which is a global coordinate system defined in the virtual space 11. The computer 300 associates each partial image forming the panoramic image 13 (still image, moving image, etc.) that can be developed in the virtual space 11 with each corresponding mesh in the virtual space 11 .

仮想空間11では、所定の点を原点12とするXYZ座標系が規定される。XYZ座標系は、例えば、実座標系に平行である。XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸が実座標系の水平方向と平行であり、XYZ座標系のY軸(鉛直方向)が実座標系の鉛直方向と平行であり、XYZ座標系のZ軸(前後方向)が実座標系の前後方向と平行である。 In the virtual space 11, an XYZ coordinate system with a predetermined point as the origin 12 is defined. For example, the XYZ coordinate system is parallel to the real coordinate system. The horizontal direction, vertical direction (vertical direction), and front-back direction in the XYZ coordinate system are defined as the X-axis, Y-axis, and Z-axis, respectively. Therefore, the X axis of the XYZ coordinate system is parallel to the horizontal direction of the real coordinate system, the Y axis (vertical direction) of the XYZ coordinate system is parallel to the vertical direction of the real coordinate system, and the Z axis of the direction) is parallel to the front-back direction of the real coordinate system.

VR装置210の起動時、すなわちVR装置210の初期状態においては、仮想カメラ14が、仮想空間11の所定の位置(例えば、中心)に配置される。また、プロセッサ301は、仮想カメラ14が撮影する画像をVR装置210のディスプレイ211に表示する。仮想カメラ14は、現実空間におけるVR装置210の動きに連動して、仮想空間11内で動く。これにより、現実空間におけるVR装置210の傾きや位置の変化が、仮想空間11において同様に再現され得る。 When the VR device 210 is started, that is, in the initial state of the VR device 210, the virtual camera 14 is placed at a predetermined position (for example, at the center) of the virtual space 11. Furthermore, the processor 301 displays the image captured by the virtual camera 14 on the display 211 of the VR device 210. The virtual camera 14 moves within the virtual space 11 in conjunction with the movement of the VR device 210 in the real space. Thereby, changes in the tilt and position of the VR device 210 in the real space can be similarly reproduced in the virtual space 11.

仮想カメラ14には、VR装置210の場合と同様に、uvw視野座標系が規定される。仮想空間11における仮想カメラ14のuvw視野座標系は、現実空間(実座標系)におけるVR装置210のuvw視野座標系に連動するように規定されている。したがって、VR装置210の傾きが変化すると、それに応じて、仮想カメラ14の傾きも変化する。なお、仮想カメラ14は、VRユーザの現実空間における移動に連動して、仮想空間11において移動してもよいが、本実施形態では、VRユーザが現実空間において移動しても、仮想空間11では移動しないようになっている。 As in the case of the VR device 210, the uvw visual field coordinate system is defined for the virtual camera 14. The UVW visual field coordinate system of the virtual camera 14 in the virtual space 11 is defined to be linked to the UVW visual field coordinate system of the VR device 210 in the real space (real coordinate system). Therefore, when the tilt of the VR device 210 changes, the tilt of the virtual camera 14 also changes accordingly. Note that the virtual camera 14 may move in the virtual space 11 in conjunction with the movement of the VR user in the real space, but in this embodiment, even if the VR user moves in the real space, the virtual camera 14 may move in the virtual space 11 in conjunction with the movement of the VR user in the real space. It is designed not to move.

コンピュータ300のプロセッサ301は、仮想カメラ14の位置と傾きとに基づいて、仮想空間11における視界領域15を規定する。視界領域15は、仮想空間11のうち、VR装置210を装着したVRユーザが視認する領域に対応する。つまり、仮想カメラ14の位置は、仮想空間11におけるVRユーザの視点といえる。 The processor 301 of the computer 300 defines the viewing area 15 in the virtual space 11 based on the position and tilt of the virtual camera 14. The viewing area 15 corresponds to an area of the virtual space 11 that is viewed by a VR user wearing the VR device 210. In other words, the position of the virtual camera 14 can be said to be the VR user's viewpoint in the virtual space 11.

VR装置210のuvw視野座標系は、VRユーザがディスプレイ211を視認する際の視点座標系に等しい。仮想カメラ14のuvw視野座標系は、VR装置210のuvw視野座標系に連動している。したがって、注視センサ212によって検出されたVRユーザの視線を、仮想カメラ14のuvw視野座標系におけるVRユーザの視線とみなすことができる。 The uvw visual field coordinate system of the VR device 210 is equal to the viewpoint coordinate system when the VR user views the display 211 . The uvw visual field coordinate system of the virtual camera 14 is linked to the uvw visual field coordinate system of the VR device 210. Therefore, the line of sight of the VR user detected by the gaze sensor 212 can be regarded as the line of sight of the VR user in the uvw visual field coordinate system of the virtual camera 14.

(視界領域)
図5および図6を参照して、視界領域15について説明する。図5は、仮想空間11において視界領域15をX方向から見たYZ断面を表す図である。図6は、仮想空間11において視界領域15をY方向から見たXZ断面を表す図である。
(Visual area)
The viewing area 15 will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram showing a YZ cross section of the viewing area 15 viewed from the X direction in the virtual space 11. FIG. 6 is a diagram showing an XZ cross section of the viewing area 15 viewed from the Y direction in the virtual space 11.

図5に示されるように、YZ断面における視界領域15は、領域18を含む。領域18は、仮想カメラ14の位置と基準視線16と仮想空間11のYZ断面とによって定義される。プロセッサ301は、仮想空間における基準視線16を中心として極角αを含む範囲を、領域18として定義する。 As shown in FIG. 5, the viewing area 15 in the YZ cross section includes a region 18. The region 18 is defined by the position of the virtual camera 14, the reference line of sight 16, and the YZ cross section of the virtual space 11. The processor 301 defines a range including the polar angle α centered on the reference line of sight 16 in the virtual space as a region 18 .

図6に示されるように、XZ断面における視界領域15は、領域19を含む。領域19は、仮想カメラ14の位置と基準視線16と仮想空間11のXZ断面とによって定義される。プロセッサ301は、仮想空間11における基準視線16を中心とした方位角βを含む範囲を、領域19として定義する。極角αおよびβは、仮想カメラ14の位置と仮想カメラ14の傾き(向き)とに応じて定まる。 As shown in FIG. 6, the viewing area 15 in the XZ cross section includes a region 19. The region 19 is defined by the position of the virtual camera 14, the reference line of sight 16, and the XZ cross section of the virtual space 11. The processor 301 defines a range including the azimuth angle β centered on the reference line of sight 16 in the virtual space 11 as a region 19 . The polar angles α and β are determined depending on the position of the virtual camera 14 and the inclination (orientation) of the virtual camera 14.

VRシステム200は、コンピュータ300からの信号に基づいて、視界画像17をディスプレイ211に表示させることにより、VRユーザに仮想空間11における視界を提供する(図4参照)。視界画像17は、パノラマ画像13のうち視界領域15に対応する部分に相当する画像である。VRユーザが、頭に装着したVR装置210を動かすと、その動きに連動して仮想カメラ14も動く。その結果、仮想空間11における視界領域15の位置が変化する。これにより、ディスプレイ211に表示される視界画像17は、パノラマ画像13のうち、仮想空間11においてVRユーザが向いた方向の視界領域15に重畳する画像に更新される。VRユーザは、仮想空間11における所望の方向を視認することができる。 The VR system 200 provides the VR user with a view in the virtual space 11 by displaying the view image 17 on the display 211 based on a signal from the computer 300 (see FIG. 4). The visibility image 17 is an image corresponding to a portion of the panoramic image 13 that corresponds to the visibility area 15. When the VR user moves the VR device 210 worn on the head, the virtual camera 14 also moves in conjunction with the movement. As a result, the position of the viewing area 15 in the virtual space 11 changes. Thereby, the view image 17 displayed on the display 211 is updated to an image of the panoramic image 13 that is superimposed on the view area 15 in the direction toward which the VR user faces in the virtual space 11. The VR user can visually recognize a desired direction in the virtual space 11.

VRユーザは、VR装置210を装着している間、現実世界を視認することなく、仮想空間11に展開されるパノラマ画像13のみを視認できる。そのため、情報処理システム100は、仮想空間11への高い没入感覚をVRユーザに与えることができる。 While wearing the VR device 210, the VR user can view only the panoramic image 13 developed in the virtual space 11 without viewing the real world. Therefore, the information processing system 100 can provide the VR user with a highly immersive feeling in the virtual space 11.

なお、仮想カメラ14は、2つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含み得る。この場合、VRユーザが3次元の仮想空間11を認識できるように、適切な視差が、2つの仮想カメラに設定される。なお、仮想カメラ14を1つの仮想カメラにより実現してもよい。この場合、1つの仮想カメラにより得られた画像から、右目用の画像と左目用の画像とを生成するようにしてもよい。 Note that the virtual camera 14 may include two virtual cameras, that is, a virtual camera for providing an image for the right eye and a virtual camera for providing an image for the left eye. In this case, appropriate parallax is set for the two virtual cameras so that the VR user can recognize the three-dimensional virtual space 11. Note that the virtual camera 14 may be realized by one virtual camera. In this case, an image for the right eye and an image for the left eye may be generated from an image obtained by one virtual camera.

(コントローラ)
図7を参照して、コントローラ280の一例について説明する。
(controller)
An example of the controller 280 will be described with reference to FIG. 7.

図7に示されるように、コントローラ280は、右コントローラ280Rと図示せぬ左コントローラとを含み得る。この場合に、右コントローラ280Rは、VRユーザの右手で操作される。左コントローラは、VRユーザの左手で操作される。ある局面において、右コントローラ280Rと左コントローラとは、別個の装置として構成される。したがって、VRユーザは、右コントローラ280Rを把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。別の局面において、コントローラ280は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ280Rについて説明する。 As shown in FIG. 7, the controller 280 may include a right controller 280R and a left controller (not shown). In this case, the right controller 280R is operated with the VR user's right hand. The left controller is operated with the VR user's left hand. In one aspect, the right controller 280R and the left controller are configured as separate devices. Therefore, the VR user can freely move the right hand holding the right controller 280R and the left hand holding the left controller. In another aspect, controller 280 may be an integrated controller that accepts operation with both hands. The right controller 280R will be explained below.

右コントローラ280Rは、グリップ281と、フレーム282と、天面283と、ボタン284,285と、センサ(例えば、モーションセンサ)286と、赤外光LED287と、ボタン288,289と、アナログスティック290とを備える。グリップ281は、VRユーザの右手によって把持されるように構成されている。たとえば、グリップ281は、VRユーザの右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。 The right controller 280R includes a grip 281, a frame 282, a top surface 283, buttons 284 and 285, a sensor (for example, a motion sensor) 286, an infrared LED 287, buttons 288 and 289, and an analog stick 290. Equipped with Grip 281 is configured to be held by the VR user's right hand. For example, the grip 281 may be held by the VR user's right hand palm and three fingers (middle finger, ring finger, little finger).

ボタン284は、グリップ281の側面に配置され、右手の中指による操作を受け付ける。ボタン285は、グリップ281の前面に配置され、右手の人差し指による操作を受け付ける。また、ボタン284,285は、ボタン284,285を押下するユーザの動きを検出するスイッチを備えている。なお、ボタン284,285は、トリガー式のボタンとして構成されてもよい。 The button 284 is arranged on the side surface of the grip 281 and accepts operation by the middle finger of the right hand. Button 285 is arranged on the front surface of grip 281 and accepts operation by the index finger of the right hand. Further, the buttons 284 and 285 are provided with switches that detect the movement of the user who presses the buttons 284 and 285. Note that the buttons 284 and 285 may be configured as trigger-type buttons.

センサ286は、グリップ281の筐体に内蔵されている。また、センサ286は、VRユーザの動きを検出する。具体的には、センサ286は、VRユーザの手の動きを検出する。例えば、センサ286は、手の回転速度、回転数等を検出する。なお、コントローラ280は、センサ286を備えなくてもよい。 The sensor 286 is built into the housing of the grip 281. Additionally, the sensor 286 detects the movement of the VR user. Specifically, sensor 286 detects the movement of the VR user's hand. For example, the sensor 286 detects the rotation speed, number of rotations, etc. of the hand. Note that the controller 280 does not need to include the sensor 286.

フレーム282には、その円周方向に沿って複数の赤外光LED287が配置されている。赤外光LED287は、コントローラ280を使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外光を発光する。赤外光LED287から発せられた赤外光は、右コントローラ280Rと左コントローラとの各位置や姿勢(傾き、向き)を検出するために使用され得る。 A plurality of infrared LEDs 287 are arranged on the frame 282 along its circumferential direction. The infrared light LED 287 emits infrared light while a program using the controller 280 is being executed in accordance with the progress of the program. The infrared light emitted from the infrared light LED 287 can be used to detect the positions and postures (tilt, orientation) of the right controller 280R and the left controller.

天面283は、ボタン288,289と、アナログスティック290とを備える。ボタン288,289は、VRユーザの右手の親指による操作を受け付ける。また、ボタン288,289は、ボタン288,289を押下するユーザの動きを検出するスイッチを備えている。アナログスティック290は、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、たとえば、仮想空間11に配置されるオブジェクトを移動させるための操作を含む。また、アナログスティック290は、アナログスティック290を操作するユーザの動きを検出するセンサを備えている。 The top surface 283 includes buttons 288 and 289 and an analog stick 290. Buttons 288 and 289 accept operations by the VR user's right thumb. Further, the buttons 288 and 289 are provided with switches that detect the movement of the user who presses the buttons 288 and 289. The analog stick 290 accepts operation in any direction within 360 degrees from the initial position (neutral position). The operation includes, for example, an operation for moving an object placed in the virtual space 11. Further, the analog stick 290 includes a sensor that detects the movement of the user who operates the analog stick 290.

コントローラ280が検出したVRユーザの入力操作(換言すると、VRユーザの動き)に関する情報は、コンピュータ300に送られる。 Information regarding the VR user's input operation (in other words, the VR user's movement) detected by the controller 280 is sent to the computer 300.

図7に示されるように、コントローラ280には、例えば、VRユーザの右手に対して、ヨー、ロール、ピッチの各方向が規定される。具体的には、例えば、VRユーザが親指と人差し指とを伸ばした場合に、親指の伸びる方向がヨー方向、人差し指の伸びる方向がロール方向、ヨー方向の軸およびロール方向の軸によって規定される平面に垂直な方向がピッチ方向として規定される。 As shown in FIG. 7, the controller 280 is defined with yaw, roll, and pitch directions, for example, with respect to the VR user's right hand. Specifically, for example, when a VR user extends his thumb and index finger, the direction in which the thumb extends is the yaw direction, the direction in which the index finger extends is the roll direction, and a plane defined by the axis of the yaw direction and the axis of the roll direction. The direction perpendicular to is defined as the pitch direction.

(MRシステムの構成)
図3に示されるように、MRシステム400は、MR装置410と、コンピュータ500と、検出装置460と、ディスプレイ470と、コントローラ480とを備える。MR装置410は、ディスプレイ411と、注視センサ412と、カメラ413と、マイク415と、スピーカ416と、センサ417とを備える。以下、MR装置410を使用するユーザを、MRユーザ6と呼ぶ。
(Configuration of MR system)
As shown in FIG. 3, the MR system 400 includes an MR device 410, a computer 500, a detection device 460, a display 470, and a controller 480. MR device 410 includes a display 411, a gaze sensor 412, a camera 413, a microphone 415, a speaker 416, and a sensor 417. Hereinafter, the user who uses the MR device 410 will be referred to as the MR user 6.

コンピュータ500は、インターネットその他のネットワーク2に接続可能であり、例えば、ネットワーク2に接続されているサーバ600、VRシステム200のコンピュータ、およびその他のコンピュータと通信可能である。その他のコンピュータとしては、例えば、他のMRシステム400のコンピュータや外部機器700等が挙げられる。 The computer 500 can be connected to the Internet or other networks 2, and can communicate with, for example, the server 600, the computer of the VR system 200, and other computers connected to the network 2. Examples of other computers include computers of other MR systems 400, external equipment 700, and the like.

MR装置410は、MRユーザ6の頭部に装着され、動作中に複合現実空間をMRユーザ6に提供し得る。MR装置410は、例えば、ディスプレイを備えるメガネ型の装置(例えば、所謂MRグラス)であってもよい。また、MR装置410は、コンタクトレンズ型の装置等であってもよい。 The MR device 410 is attached to the head of the MR user 6 and can provide the MR user 6 with a mixed reality space during operation. The MR device 410 may be, for example, a glasses-type device (for example, so-called MR glasses) including a display. Further, the MR device 410 may be a contact lens type device or the like.

ディスプレイ411は、例えば、透過型の表示装置として実現される。なお、透過型のディスプレイ411は、その透過率を調整することにより、一時的に非透過型の表示装置として機能するものであってもよい。ディスプレイ411は、例えば、MRユーザ6の両目の前方に位置するようにMR装置410の本体に配置されている。したがって、MRユーザ6には、透過型のディスプレイ411を介して見える現実空間に、ディスプレイ411が表示する仮想オブジェクトが重畳された表示が提供される。すなわち、MR装置410は、現実空間に仮想オブジェクトが配置された複合現実空間のビューをMRユーザ6に提供する。換言すると、MRユーザ6は、MR装置410により、仮想オブジェクトと、現実空間に存在するオブジェクト(以下、「現実オブジェクト」という。)とを同時に見ることができる。 The display 411 is realized, for example, as a transmissive display device. Note that the transmissive display 411 may temporarily function as a non-transmissive display device by adjusting its transmittance. The display 411 is arranged on the main body of the MR apparatus 410, for example, so as to be located in front of both eyes of the MR user 6. Therefore, the MR user 6 is provided with a display in which the virtual object displayed by the display 411 is superimposed on the real space visible through the transparent display 411. That is, the MR device 410 provides the MR user 6 with a view of a mixed reality space in which virtual objects are placed in the real space. In other words, the MR device 410 allows the MR user 6 to simultaneously view a virtual object and an object existing in real space (hereinafter referred to as a "real object").

検出装置460は、MR装置410を使用するMRユーザ6の動きを検出する。検出装置460は、MR装置410の動きを検出するためのポジショントラッキング機能を有し、これによりMRユーザ6の動きを検出するものであってもよい。具体的には、検出装置460は、例えば、MRユーザ6の動きを検出するためのセンサとして、MR装置410からの光(例えば、赤外光)を読み取るセンサを有し、複合現実空間内におけるMR装置410の位置や傾き等を検出するものであってもよい。この場合に、MR装置410は、図示せぬ複数の光源を有していてもよい。また、各光源は例えば、赤外光を発するLED(Light Emitting Diode)により実現されてもよい。 Detection device 460 detects the movement of MR user 6 using MR device 410. The detection device 460 may have a position tracking function for detecting the movement of the MR device 410, thereby detecting the movement of the MR user 6. Specifically, the detection device 460 has a sensor that reads light (for example, infrared light) from the MR device 410 as a sensor for detecting the movement of the MR user 6, and detects the movement of the MR user 6 in the mixed reality space. It may also be a device that detects the position, inclination, etc. of the MR device 410. In this case, the MR device 410 may include a plurality of light sources (not shown). Further, each light source may be realized by, for example, an LED (Light Emitting Diode) that emits infrared light.

また、検出装置460は、例えば、カメラにより実現されてもよい。具体的には、検出装置460は、MRユーザ6の動きを検出するためのセンサとして、イメージセンサ(例えば、RGB画像を取得するイメージセンサ、白黒画像を取得するイメージセンサ、またはデプスセンサ等)を有するものであってもよい。換言すると、MRユーザ6の動きは、カメラによって検出されてもよい。検出装置460は、例えば、赤外光や所定のパターンの光等の所定の光を放射する装置と、イメージセンサ(例えば、デプスセンサ)とを備えるデプスカメラ等であり、当該装置から放射された光の反射光を当該イメージセンサにより検出し、イメージセンサからの出力に基づいて、MRユーザ6の位置や姿勢等を検出するもの等であってもよい。また、検出装置460は、このようなデプスカメラとRGB画像が取得可能なカメラとを備えるものであり、これらのカメラからの出力に基づいて、MRユーザ6の位置や姿勢等を検出するもの等であってもよい。また、検出装置460は、例えば、複数のイメージセンサを備えるステレオカメラ等であり、複数のイメージセンサからの出力に基づいて、MRユーザ6の位置や姿勢等を検出するもの等であってもよい。なお、MRユーザ6の位置や姿勢等の検出とは、MRユーザ6の体の位置や姿勢等の検出であってもよく、MR装置410の位置や傾き等の検出であってもよい。 Further, the detection device 460 may be realized by, for example, a camera. Specifically, the detection device 460 includes an image sensor (for example, an image sensor that acquires an RGB image, an image sensor that acquires a monochrome image, or a depth sensor) as a sensor for detecting the movement of the MR user 6. It may be something. In other words, the movement of the MR user 6 may be detected by the camera. The detection device 460 is, for example, a depth camera that includes a device that emits predetermined light such as infrared light or light with a predetermined pattern, and an image sensor (for example, a depth sensor), and detects the light emitted from the device. The image sensor may detect the reflected light of the image sensor, and the position, posture, etc. of the MR user 6 may be detected based on the output from the image sensor. Further, the detection device 460 includes such a depth camera and a camera capable of acquiring RGB images, and detects the position, posture, etc. of the MR user 6 based on the output from these cameras. It may be. Further, the detection device 460 may be, for example, a stereo camera including a plurality of image sensors, and may be one that detects the position, posture, etc. of the MR user 6 based on outputs from the plurality of image sensors. . Note that the detection of the position, posture, etc. of the MR user 6 may be the detection of the body position, posture, etc. of the MR user 6, or may be the detection of the position, tilt, etc. of the MR device 410.

なお、MRシステム400は、検出装置460として、1または複数種類の検出装置を有していてもよく、各種類の検出装置を複数有していてもよい。例えば、MRシステム400は、複数のカメラ(換言すると、複数のセンサ)を備え、当該複数のカメラが検出装置460として機能してもよい。本実施形態では、MRシステム400は、3台の検出装置460を備え、各検出装置460が、デプスカメラとRGB画像が取得可能なカメラとを備えるものとして説明する。なお、検出装置460の一部がコンピュータ500等によって構成されてもよい。例えば、イメージセンサからの出力の解析(例えば、画像認識等)は、コンピュータ500等で行われてもよい。なお、MRシステム400は、検出装置460を有していなくてもよい。 Note that the MR system 400 may include one or more types of detection devices as the detection device 460, or may include a plurality of each type of detection device. For example, the MR system 400 may include multiple cameras (in other words, multiple sensors), and the multiple cameras may function as the detection device 460. In this embodiment, the MR system 400 will be described as including three detection devices 460, and each detection device 460 includes a depth camera and a camera capable of acquiring RGB images. Note that a part of the detection device 460 may be configured by the computer 500 or the like. For example, analysis of the output from the image sensor (eg, image recognition, etc.) may be performed by the computer 500 or the like. Note that the MR system 400 does not need to include the detection device 460.

なお、検出装置460は、上述の各種センサ等に加え、検出装置460自身の位置や傾き等を検出可能なセンサを有していてもよい。具体的には、例えば、検出装置460は、角速度センサ(例えば、3軸角速度センサ)、加速度センサ(例えば、3軸加速度センサ)、または地磁気センサ(例えば、3軸地磁気センサ)等を有していてもよい。また、これらのセンサからの出力は、コンピュータ500等に送られ、例えば、検出装置460の備えるイメージセンサからの出力に基づいて所定の処理が行われる際等に使用されてもよい。 In addition to the various sensors described above, the detection device 460 may include a sensor capable of detecting the position, inclination, etc. of the detection device 460 itself. Specifically, for example, the detection device 460 includes an angular velocity sensor (for example, a 3-axis angular velocity sensor), an acceleration sensor (for example, a 3-axis acceleration sensor), a geomagnetic sensor (for example, a 3-axis geomagnetic sensor), or the like. It's okay. Further, the outputs from these sensors may be sent to the computer 500 or the like, and may be used, for example, when predetermined processing is performed based on the outputs from the image sensor included in the detection device 460.

また、後述するMR装置410の構成から理解されるように、他のMRユーザ6のMR装置410が、検出装置460として用いられてもよい。 Further, as understood from the configuration of the MR device 410 described later, the MR device 410 of another MR user 6 may be used as the detection device 460.

また、MR装置410は、MRユーザ6の動きを検出する検出手段として、検出装置460の代わりに、あるいは検出装置460に加えてセンサ417を備えてもよい。MR装置410は、センサ417を用いて、MR装置410自身の位置および傾きを検出し得る。センサ417は、例えば、角速度センサ(例えば、3軸角速度センサ)、加速度センサ(例えば、3軸加速度センサ)、または地磁気センサ(例えば、3軸地磁気センサ)等であってもよい。また、MR装置410は、センサ417として、1または複数種類のセンサを有していてもよく、各種類のセンサを複数有していてもよい。 Further, the MR device 410 may include a sensor 417 instead of or in addition to the detection device 460 as a detection means for detecting the movement of the MR user 6. MR device 410 can use sensor 417 to detect the position and tilt of MR device 410 itself. The sensor 417 may be, for example, an angular velocity sensor (for example, a 3-axis angular velocity sensor), an acceleration sensor (for example, a 3-axis acceleration sensor), a geomagnetic sensor (for example, a 3-axis geomagnetic sensor), or the like. Furthermore, the MR device 410 may have one or more types of sensors as the sensor 417, or may have a plurality of each type of sensor.

注視センサ412は、MRユーザ6の右目および左目の視線が向けられる方向を検出する。すなわち、注視センサ412は、MRユーザ6の視線(換言すると、目の動き)を検出する。視線の方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ412は、当該アイトラッキング機能を有するセンサにより実現される。注視センサ412は、右目用のセンサおよび左目用のセンサを含んでいてもよい。注視センサ412は、例えば、MRユーザ6の右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。この場合、注視センサ412は、検出した各回転角に基づいて、MRユーザ6の視線を検出することができる。 Gaze sensor 412 detects the direction in which the right and left eyes of MR user 6 are directed. That is, the gaze sensor 412 detects the line of sight (in other words, the movement of the eyes) of the MR user 6. Detection of the direction of the line of sight is realized, for example, by a known eye tracking function. The gaze sensor 412 is realized by a sensor having the eye tracking function. Gaze sensor 412 may include a right eye sensor and a left eye sensor. For example, the gaze sensor 412 may be a sensor that irradiates infrared light to the right and left eyes of the MR user 6 and detects the rotation angle of each eyeball by receiving reflected light from the cornea and iris of the irradiated light. good. In this case, the gaze sensor 412 can detect the line of sight of the MR user 6 based on each detected rotation angle.

カメラ413は、MRユーザ6の周囲(例えば、前方)を撮影する。MR装置410は、例えば、カメラ413として、デプスカメラと、RGB画像が取得可能なカメラとを備えていてもよい。そして、カメラ413からの出力に基づいて、コンピュータ500が、MR装置410(換言するとMRユーザ6)の周囲のオブジェクトの形状や、MR装置410と周囲のオブジェクトとの相対的な距離等を検出してもよい。また、MR装置410の位置や傾きは、カメラ413からの出力に基づいて検出されてもよい。換言すると、MR装置410のトラッキングは、アウトサイドイン方式によって行われてもよく、インサイドアウト方式によって行われてもよい。 The camera 413 photographs the surroundings (for example, in front) of the MR user 6. The MR device 410 may include, for example, a depth camera and a camera capable of acquiring RGB images as the camera 413. Then, based on the output from the camera 413, the computer 500 detects the shapes of objects around the MR device 410 (in other words, the MR user 6), the relative distances between the MR device 410 and the surrounding objects, etc. It's okay. Further, the position and tilt of the MR device 410 may be detected based on the output from the camera 413. In other words, tracking of the MR device 410 may be performed using an outside-in method or an inside-out method.

音入力手段としてのマイク415は、MRユーザ6の声を音信号(換言すると、電気信号)に変換してコンピュータ500に出力する。音出力手段としてのスピーカ416は、音信号を音に変換してMRユーザ6に出力する。なお、MR装置410は、音出力手段としてスピーカ416に代えてイヤホンを含んでいてもよい。 The microphone 415 serving as a sound input means converts the voice of the MR user 6 into a sound signal (in other words, an electrical signal) and outputs it to the computer 500. A speaker 416 serving as a sound output means converts the sound signal into sound and outputs it to the MR user 6. Note that the MR device 410 may include earphones instead of the speaker 416 as a sound output means.

ディスプレイ470は、例えば、ディスプレイ411に表示されている画像と同様の画像を表示する。これにより、MR装置410を装着しているMRユーザ6以外のユーザにも当該MRユーザ6と同様の画像を視聴させることができる。ディスプレイ470に表示される画像は、3次元画像である必要はなく、例えば、MR装置410で表示される右目用の画像や左目用の画像であってもよい。ディスプレイ470としては、例えば、液晶ディスプレイや有機ELディスプレイなどが挙げられる。なお、ディスプレイ470は、MR装置410がMRユーザ6に提供する複合現実空間のビューを示す画像を表示してもよい。 Display 470 displays an image similar to the image displayed on display 411, for example. This allows users other than the MR user 6 wearing the MR device 410 to view the same images as the MR user 6. The image displayed on the display 470 does not need to be a three-dimensional image, and may be, for example, an image for the right eye or an image for the left eye displayed on the MR device 410. Examples of the display 470 include a liquid crystal display and an organic EL display. Note that the display 470 may display an image showing a view of the mixed reality space that the MR device 410 provides to the MR user 6.

コントローラ480は、有線または無線によりコンピュータ500に接続されている。コントローラ480は、MRユーザ6からコンピュータ500への指示に係る入力操作を受け付ける。また、コントローラ480は、複合現実空間に配置される仮想オブジェクトの位置や動きを制御するためのMRユーザ6による入力操作を受け付ける。コントローラ480は、例えば、MRユーザ6によって把持可能に構成されてもよい。また、コントローラ480は、例えば、MRユーザ6の身体あるいは衣類の一部に装着可能に構成されてもよい。また、コントローラ480は、コンピュータ500から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力可能に構成されてもよい。 Controller 480 is connected to computer 500 by wire or wirelessly. Controller 480 accepts input operations related to instructions from MR user 6 to computer 500. Further, the controller 480 accepts input operations by the MR user 6 to control the position and movement of virtual objects placed in the mixed reality space. The controller 480 may be configured to be graspable by the MR user 6, for example. Furthermore, the controller 480 may be configured to be attachable to the body or part of clothing of the MR user 6, for example. Further, the controller 480 may be configured to be able to output at least one of vibration, sound, and light based on a signal transmitted from the computer 500.

また、コントローラ480は、複数の光源を有していてもよい。各光源は例えば、赤外光を発するLEDにより実現されてもよい。そして、検出装置460は、コントローラ480からの赤外光を読み取り、複合現実空間内におけるコントローラ480の位置および傾き等を検出してもよい。換言すると、検出装置460は、コントローラ480の動きを検出するポジショントラッキング機能を有し、これによりMRユーザ6の動きを検出するものであってもよい。 Further, the controller 480 may include multiple light sources. Each light source may be realized by, for example, an LED that emits infrared light. The detection device 460 may read the infrared light from the controller 480 and detect the position, tilt, etc. of the controller 480 in the mixed reality space. In other words, the detection device 460 may have a position tracking function that detects the movement of the controller 480, thereby detecting the movement of the MR user 6.

なお、MRシステム400は、コントローラ480を有していなくてもよい。また、コントローラ480は、例えば、コントローラ280の備える構成の一部または全部を有していてもよい。 Note that the MR system 400 does not need to include the controller 480. Moreover, the controller 480 may have part or all of the configuration of the controller 280, for example.

なお、情報処理システム100は、MRユーザ6の動きを検出するセンサ486を有していてもよい。センサ486は、例えば、角速度センサ、加速度センサ、または地磁気センサであってもよい。また、センサ486は、例えば、コントローラ480に設けられていてもよい。なお、情報処理システム100は、センサ486として、1または複数種類のセンサを有していてもよく、各種類のセンサを複数有していてもよい。また、センサ486を備える装置(例えば、コントローラ480や所定のカメラ等)と、コンピュータ500とは、例えば、無線により互いに接続されてもよい。そして、センサ486により取得された情報は、例えば、無線通信によりコンピュータ300に送信されてもよい。 Note that the information processing system 100 may include a sensor 486 that detects the movement of the MR user 6. Sensor 486 may be, for example, an angular velocity sensor, an acceleration sensor, or a geomagnetic sensor. Further, the sensor 486 may be provided in the controller 480, for example. Note that the information processing system 100 may have one or more types of sensors as the sensor 486, or may have a plurality of each type of sensor. Further, a device including the sensor 486 (for example, the controller 480, a predetermined camera, etc.) and the computer 500 may be connected to each other wirelessly, for example. The information acquired by sensor 486 may then be transmitted to computer 300 via wireless communication, for example.

また、MRユーザ6の位置や動きは、MR装置410が、所定の無線通信(例えば、Wi-Fi通信、Bluetooth通信、またはUWB通信などの近距離無線通信)を行う装置を備え、当該装置と周囲の機器とが無線通信を行いVR装置210の位置情報を取得することにより検出されてもよい。 Further, the position and movement of the MR user 6 can be determined by the MR device 410, which is equipped with a device that performs predetermined wireless communication (for example, short-range wireless communication such as Wi-Fi communication, Bluetooth communication, or UWB communication), and is connected to the device. The VR device 210 may be detected by wirelessly communicating with surrounding devices and acquiring position information of the VR device 210.

また、MRユーザ6の位置や動きは、MRユーザ6が身につけるデバイス等(例えば、時計型、リストバンド型、指輪型、もしくは衣服型等のウェアラブルデバイス、または体内埋め込み型のデバイス等)の、MRユーザ6の動きをトラッキング可能とする外部機器700(および当該機器と近距離無線通信等により連携してMRユーザ6の動きをトラッキングする機器)を用いて検出されてもよい。また、これらの外部機器700をコントローラ480として使用してもよい。また、MRユーザ6の位置や動きは、GPSセンサ等によって検出されてもよい。 In addition, the position and movement of the MR user 6 can be determined by a device worn by the MR user 6 (for example, a watch-type, wristband-type, ring-type, or clothing-type wearable device, or a device implanted in the body). , may be detected using an external device 700 that is capable of tracking the movement of the MR user 6 (and a device that tracks the movement of the MR user 6 in cooperation with the device through short-range wireless communication or the like). Further, these external devices 700 may be used as the controller 480. Furthermore, the position and movement of the MR user 6 may be detected by a GPS sensor or the like.

(コンピュータ500の構成)
図3に示されるように、コンピュータ500は、主たる構成要素として、プロセッサ501と、メモリ502と、ストレージ503と、入出力インターフェース504と、通信インターフェース505とを備える。各構成要素は、それぞれ、バスによって互いに接続されている。
(Configuration of computer 500)
As shown in FIG. 3, the computer 500 includes a processor 501, a memory 502, a storage 503, an input/output interface 504, and a communication interface 505 as main components. Each component is connected to each other by a bus.

プロセッサ501は、MR装置410の動作を制御する。プロセッサ501は、ストレージ503からプログラムを読み出し、メモリ502に展開する。プロセッサ501は、展開したプログラムを実行する。プロセッサ501は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processor Unit)、およびFPGA(Field-Programmable Gate Array)等のうちの1種類以上を含んで構成され得る。 Processor 501 controls the operation of MR device 410. Processor 501 reads a program from storage 503 and expands it into memory 502. Processor 501 executes the developed program. The processor 501 may be configured to include one or more types of, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processor Unit), and an FPGA (Field-Programmable Gate Array).

メモリ502は、主記憶装置である。メモリ502は、例えば、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置により構成される。メモリ502は、プロセッサ501がストレージ503から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ501に作業領域を提供する。メモリ502は、プロセッサ501がプログラムに従って動作している間に生成した各種データやコンピュータ500に入力された各種データ等も一時的に記憶する。 Memory 502 is a main storage device. The memory 502 is configured of storage devices such as ROM (Read Only Memory) and RAM (Random Access Memory). The memory 502 provides a work area for the processor 501 by temporarily storing programs and various data that the processor 501 reads from the storage 503. The memory 502 also temporarily stores various data generated while the processor 501 is operating according to a program, various data input to the computer 500, and the like.

ストレージ503は、補助記憶装置である。ストレージ503は、例えば、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置により構成される。ストレージ503には、情報処理システム100においてサービスを提供するためのプログラムが格納される。また、ストレージ503には、情報処理システム100においてサービスを提供するための各種データが格納される。ストレージ503に格納されるデータには、複合現実空間を規定するためのデータおよび仮想オブジェクトに関するデータ等が含まれる。 Storage 503 is an auxiliary storage device. The storage 503 is configured of a storage device such as a flash memory or a hard disk drive (HDD), for example. The storage 503 stores programs for providing services in the information processing system 100. Further, the storage 503 stores various data for providing services in the information processing system 100. The data stored in the storage 503 includes data for defining a mixed reality space, data regarding virtual objects, and the like.

なお、ストレージ503は、メモリカードのように着脱可能な記憶装置として実現されてもよい。また、コンピュータ500に内蔵されたストレージ503の代わりに、外部の記憶装置に保存されているプログラムおよびデータが使用される構成であってもよい。 Note that the storage 503 may be realized as a removable storage device such as a memory card. Furthermore, instead of the storage 503 built into the computer 500, programs and data stored in an external storage device may be used.

入出力インターフェース504は、コンピュータ500がデータの入力を受け付けるためのインターフェースであるとともに、コンピュータ500がデータを出力するためのインターフェースである。入出力インターフェース504は、MR装置410、検出装置460、およびディスプレイ470との間でデータの送信または受信をし得る。また、入出力インターフェース504は、MR装置410に含まれるディスプレイ411、注視センサ412、カメラ413、マイク415、スピーカ416、およびセンサ417との間でデータの送信または受信をしてもよい。 The input/output interface 504 is an interface through which the computer 500 receives data input, and an interface through which the computer 500 outputs data. Input/output interface 504 may send data to or receive data from MR device 410, detection device 460, and display 470. In addition, the input/output interface 504 may transmit or receive data with a display 411, a gaze sensor 412, a camera 413, a microphone 415, a speaker 416, and a sensor 417 included in the MR apparatus 410.

なお、入出力インターフェース504は、コントローラ480との間でデータの送信または受信をしてもよい。例えば、入出力インターフェース504は、コントローラ480およびセンサ486から出力された信号の入力を受けてもよい。また、入出力インターフェース504は、プロセッサ501から出力された命令を、コントローラ480に送信してもよい。当該命令は、振動、音出力、発光等をコントローラ480に指示するものであってもよい。コントローラ480は、当該命令を受信すると、命令に応じて、振動、音出力または発光等を行う。 Note that the input/output interface 504 may transmit or receive data to/from the controller 480. For example, input/output interface 504 may receive input of signals output from controller 480 and sensor 486. Further, the input/output interface 504 may transmit instructions output from the processor 501 to the controller 480. The command may instruct the controller 480 to vibrate, output sound, emit light, or the like. When the controller 480 receives the command, it vibrates, outputs sound, emits light, etc. in accordance with the command.

なお、MR装置410、検出装置460、ディスプレイ470、コントローラ480、およびセンサ486のそれぞれとコンピュータ500とは、有線接続されてもよく、無線接続されてもよい。 Note that each of the MR device 410, the detection device 460, the display 470, the controller 480, and the sensor 486 and the computer 500 may be connected by wire or wirelessly.

通信インターフェース505は、他のコンピュータ(例えば、サーバ600、コンピュータ300、または他のコンピュータ500等)とのネットワーク2を介した各種データの送受信を制御する。 The communication interface 505 controls transmission and reception of various data via the network 2 with other computers (for example, the server 600, the computer 300, or the other computer 500, etc.).

プロセッサ501は、ストレージ503にアクセスし、ストレージ503に格納されているプログラムをメモリ502に展開し、当該プログラムに含まれる一連の命令を実行する。また、プロセッサ501は、入出力インターフェース504を介して、複合現実空間を提供するための信号をMR装置410に送る。 The processor 501 accesses the storage 503, loads the program stored in the storage 503 into the memory 502, and executes a series of instructions included in the program. Further, the processor 501 sends a signal for providing mixed reality space to the MR device 410 via the input/output interface 504.

なお、コンピュータ500は、MR装置410の外部に設けられていてもよく、コンピュータ500の一部または全体がMR装置410に内蔵されてもよい。また、MR装置410が複数存在する場合に、コンピュータ500は、各MR装置410に対して設けられていてもよく、複数のMR装置410に対して共通して用いられてもよい。また、この場合に、コンピュータ500の一部が複数のMR装置410のそれぞれに内蔵されるなどしてもよい。本実施形態では、コンピュータ500に複数のMR装置410が接続される場合を例に説明する。 Note that the computer 500 may be provided outside the MR apparatus 410, or part or all of the computer 500 may be built into the MR apparatus 410. Furthermore, when there are a plurality of MR apparatuses 410, the computer 500 may be provided for each MR apparatus 410, or may be used in common for the plurality of MR apparatuses 410. Further, in this case, a part of the computer 500 may be built into each of the plurality of MR apparatuses 410. In this embodiment, a case where a plurality of MR apparatuses 410 are connected to a computer 500 will be described as an example.

現実空間(換言すると、複合現実空間)内におけるMR装置410の位置や傾きを取得する方法は周知であり、また、前述のVR装置210における方法と同様の方法により検出できるため説明を省略する。 The method of acquiring the position and inclination of the MR device 410 in the real space (in other words, the mixed reality space) is well known and can be detected by a method similar to the method used in the VR device 210 described above, so a description thereof will be omitted.

(サーバの構成)
サーバ600は、コンピュータ300にプログラムを送信し得る。また、サーバ600は、コンピュータ500にプログラムを送信し得る。また、サーバ600は、コンピュータ300とコンピュータ500との通信を可能とする。また、サーバ600は、コンピュータ300と他のコンピュータ300との通信を可能とする。例えば、情報処理システム100が、複数のVRユーザが参加可能なサービスを提供する場合、VRユーザの各コンピュータ300は、サーバ600を介して他のコンピュータ300と通信し、これにより同じ仮想空間において複数のVRユーザが体験を共有することが可能となっていてもよい。なお、各コンピュータ300は、サーバ600を介さずに他のコンピュータ300と通信するようにしてもよい。
(Server configuration)
Server 600 may send programs to computer 300. Additionally, server 600 may send programs to computer 500. Further, the server 600 enables communication between the computer 300 and the computer 500. Additionally, the server 600 enables communication between the computer 300 and other computers 300 . For example, when the information processing system 100 provides a service in which multiple VR users can participate, each computer 300 of the VR users communicates with other computers 300 via the server 600, thereby allowing multiple VR users to participate in the same virtual space. VR users may be able to share their experiences. Note that each computer 300 may communicate with other computers 300 without going through the server 600.

図1に示されるように、サーバ600は、プロセッサ601と、メモリ602と、ストレージ603と、入出力インターフェース604と、通信インターフェース605とを備える。各構成要素は、それぞれ、バスによって互いに接続されている。 As shown in FIG. 1, the server 600 includes a processor 601, a memory 602, a storage 603, an input/output interface 604, and a communication interface 605. Each component is connected to each other by a bus.

プロセッサ601は、サーバ600全体の動作を制御する。プロセッサ601は、ストレージ603からプログラムを読み出し、メモリ602に展開する。プロセッサ601は、展開したプログラムを実行する。プロセッサ601は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processor Unit)、およびFPGA(Field-Programmable Gate Array)等のうちの1種類以上を含んで構成され得る。 Processor 601 controls the overall operation of server 600. The processor 601 reads the program from the storage 603 and expands it into the memory 602. Processor 601 executes the developed program. The processor 601 may be configured to include one or more types of, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an MPU (Micro Processor Unit), and an FPGA (Field-Programmable Gate Array).

メモリ602は、主記憶装置である。メモリ602は、例えば、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置により構成される。メモリ602は、プロセッサ601がストレージ603から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ601に作業領域を提供する。メモリ602は、プロセッサ601がプログラムに従って動作している間に生成した各種データやサーバ600に入力された各種データ等も一時的に記憶する。 Memory 602 is a main storage device. The memory 602 is configured by a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The memory 602 provides a work area to the processor 601 by temporarily storing programs and various data that the processor 601 reads from the storage 603. The memory 602 also temporarily stores various data generated while the processor 601 is operating according to a program, various data input to the server 600, and the like.

ストレージ603は、補助記憶装置である。ストレージ603は、例えば、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置により構成される。ストレージ603には、情報処理システム100においてサービスを提供するためのプログラムが格納される。また、ストレージ603には、情報処理システム100においてサービスを提供するための各種データが格納される。ストレージ603に格納されるデータには、仮想空間を規定するためのデータ、複合現実空間を規定するためのデータ、および仮想オブジェクトに関するデータ等が含まれる。 Storage 603 is an auxiliary storage device. The storage 603 is configured of a storage device such as a flash memory or a hard disk drive (HDD), for example. The storage 603 stores programs for providing services in the information processing system 100. Further, the storage 603 stores various data for providing services in the information processing system 100. The data stored in the storage 603 includes data for defining a virtual space, data for defining a mixed reality space, data regarding virtual objects, and the like.

なお、ストレージ603は、メモリカードのように着脱可能な記憶装置として実現されてもよい。また、サーバ600に内蔵されたストレージ603の代わりに、外部の記憶装置に保存されているプログラムおよびデータが使用される構成であってもよい。 Note that the storage 603 may be realized as a removable storage device such as a memory card. Furthermore, instead of the storage 603 built into the server 600, programs and data stored in an external storage device may be used.

入出力インターフェース604は、サーバ600がデータの入力を受け付けるためのインターフェースであるとともに、サーバ600がデータを出力するためのインターフェースである。入出力インターフェース604は、例えば、マウス、キーボード等の入力機器や、ディスプレイ等の出力機器との間でデータの送信または受信をし得る。 The input/output interface 604 is an interface through which the server 600 receives data input, and an interface through which the server 600 outputs data. The input/output interface 604 can send or receive data to/from input devices such as a mouse and keyboard, and output devices such as a display.

通信インターフェース605は、他のコンピュータ(例えば、コンピュータ300、およびコンピュータ500等)とのネットワーク2を介した各種データの送受信を制御する。 The communication interface 605 controls transmission and reception of various data via the network 2 with other computers (for example, the computer 300, the computer 500, etc.).

外部機器700は、コンピュータ300、コンピュータ500、またはサーバ600と通信可能な機器であればどのような機器であってもよい。外部機器700は、例えば、ネットワーク2を介してコンピュータ300と通信可能な機器であってもよく、近距離無線通信や有線接続によりコンピュータ300と通信可能な機器であってもよい。また、外部機器700は、例えば、ネットワーク2を介してコンピュータ500と通信可能な機器であってもよく、近距離無線通信や有線接続によりコンピュータ500と通信可能な機器であってもよい。また、外部機器700は、例えば、ネットワーク2を介してサーバ600と通信可能な機器であってもよい。外部機器700としては、例えば、スマートデバイス、PC(Personal Computer)、およびコンピュータ300やコンピュータ500の周辺機器などが挙げられるが、これらに限定されるものではない。 External device 700 may be any device that can communicate with computer 300, computer 500, or server 600. The external device 700 may be, for example, a device that can communicate with the computer 300 via the network 2, or a device that can communicate with the computer 300 through short-range wireless communication or a wired connection. Furthermore, the external device 700 may be, for example, a device that can communicate with the computer 500 via the network 2, or a device that can communicate with the computer 500 through short-range wireless communication or a wired connection. Further, the external device 700 may be a device that can communicate with the server 600 via the network 2, for example. Examples of the external device 700 include, but are not limited to, a smart device, a PC (Personal Computer), and peripheral devices of the computer 300 and the computer 500.

<情報処理システムの制御>
本実施形態のMRシステム400では、MR装置410は、周知のMR装置と同様、現実空間に仮想オブジェクトが配置された複合現実空間のビューをMRユーザ6に提供する。また、本実施形態のVRシステム200では、VR装置210は、周知のVR装置と同様、仮想空間のビューをVRユーザに提供する。また、本実施形態のMRシステム400では、MRユーザ6は、複合現実空間中の仮想オブジェクトを操作することが可能となっている。また、本実施形態のVRシステム200では、VRユーザは、仮想空間中の仮想オブジェクトを操作することが可能となっている。加えて、本実施形態の情報処理システム100では、VRシステム200を使用するVRユーザの動き等が、MRシステム400の提供する複合現実空間のビューに含まれる仮想オブジェクトに反映されるようになっている。また、本実施形態の情報処理システム100では、MRシステム400を使用するMRユーザ6の動き等が、VRシステム200の提供する仮想空間のビューに含まれる仮想オブジェクトに反映されるようになっている。なお、本実施形態では、VRユーザの動き等の仮想空間および複合現実空間の仮想オブジェクトへの反映はリアルタイムで行われる。また、本実施形態では、MRユーザ6の動き等の仮想空間および複合現実空間の仮想オブジェクトへの反映はリアルタイムで行われる。
<Control of information processing system>
In the MR system 400 of this embodiment, the MR device 410 provides the MR user 6 with a view of a mixed reality space in which virtual objects are arranged in the real space, similar to well-known MR devices. Furthermore, in the VR system 200 of this embodiment, the VR device 210 provides a view of the virtual space to the VR user, similar to well-known VR devices. Furthermore, in the MR system 400 of this embodiment, the MR user 6 is able to operate virtual objects in the mixed reality space. Furthermore, in the VR system 200 of this embodiment, the VR user can operate virtual objects in the virtual space. In addition, in the information processing system 100 of this embodiment, the movements of the VR user using the VR system 200 are reflected in the virtual objects included in the view of the mixed reality space provided by the MR system 400. There is. Furthermore, in the information processing system 100 of this embodiment, the movements of the MR user 6 using the MR system 400 are reflected in virtual objects included in the view of the virtual space provided by the VR system 200. . Note that in this embodiment, the movement of the VR user, etc. is reflected in the virtual object in the virtual space and the mixed reality space in real time. Furthermore, in this embodiment, the movement of the MR user 6 and the like is reflected in the virtual object in the virtual space and mixed reality space in real time.

以下では、本実施形態に係る構成が、MRユーザ6とVRユーザとの間でのコミュニケーションを可能とするサービス(換言すると、アプリケーション)に適用される場合を例に説明する。具体的には、所定の現実空間としての会議室にいるMRユーザ6と、当該会議室と離れた場所にいるVRユーザとが、仮想オブジェクトとしての製品のモックアップ等のオブジェクトを同時に見ながら会議を行うこと等を可能とするサービスに本実施形態に係る構成が適用される場合を例に説明する。なお、本実施形態に係る構成は、例えば、学校の授業を自宅から受けることを可能とするシステム等に適用することもできる。また、本実施形態に係る構成は、特定の家で行われるホームパーティに他の場所から参加することを可能とするシステム等に適用することもできる。なお、本実施形態に係る構成の適用先は、これらのサービスに限られない。また、以下では、図8に示されるように、会議室には、複数の検出装置460が会議室中の所定の位置に予め設置されているものとして説明する。また、会議室には、MRユーザ6としてMRユーザ6A、MRユーザ6B、およびMRユーザ6Cの3名が存在するものとして説明する。なお、以下では、VRユーザのアバターオブジェクトをVRアバター25と呼ぶ。また、MRユーザ6のアバターオブジェクトをMRアバター26と呼ぶ。具体的には、MRユーザ6AのアバターオブジェクトをMRアバター26Aと呼び、MRユーザ6BのアバターオブジェクトをMRアバター26Bと呼び、MRユーザ6CのアバターオブジェクトをMRアバター26Cと呼ぶ。 In the following, an example will be described in which the configuration according to the present embodiment is applied to a service (in other words, an application) that enables communication between the MR user 6 and the VR user. Specifically, an MR user 6 who is in a conference room as a predetermined real space and a VR user who is located away from the conference room have a meeting while simultaneously viewing an object such as a product mockup as a virtual object. An example will be described in which the configuration according to the present embodiment is applied to a service that enables the following. Note that the configuration according to this embodiment can also be applied to, for example, a system that allows students to take school classes from home. Furthermore, the configuration according to the present embodiment can also be applied to a system that allows a user to participate in a home party held at a specific house from another location. Note that the application of the configuration according to this embodiment is not limited to these services. Further, in the following description, it is assumed that a plurality of detection devices 460 are installed in advance at predetermined positions in the conference room, as shown in FIG. 8 . Further, the description will be made assuming that three MR users 6, MR user 6A, MR user 6B, and MR user 6C, exist in the conference room. Note that, hereinafter, the avatar object of the VR user will be referred to as the VR avatar 25. Further, the avatar object of the MR user 6 is called an MR avatar 26. Specifically, the avatar object of MR user 6A is called MR avatar 26A, the avatar object of MR user 6B is called MR avatar 26B, and the avatar object of MR user 6C is called MR avatar 26C.

図8を参照しながら、現実の会議室21(換言すると、複合現実空間21)にいるMRユーザ6A,6B,6Cに提供される視界と、VR装置210を介してこの会議室21を模した仮想空間11に入り込むVRユーザに提供される視界とについて説明する。図8は、MRユーザ6A,6B,6CとVRユーザとが、サービスを利用しているときの現実の会議室21の状態と、仮想空間11の状態とを表す模式図である。図8の上側部分には、現実の会議室21の状態が示され、図8の下側部分には、仮想空間11の状態が示されている。なお、図8においては、VRアバター25がVR装置210を装着しているが、これは説明を分かりやすくするためのものであり、実際にはVRアバター25は、VR装置210(仮想的なVR装置210)を装着していなくてもよい。また、図8においては、MRアバター26がMR装置410(仮想的なMR装置410)を装着していないが、MRアバター26が、MR装置410を装着していてもよい。 Referring to FIG. 8, the view provided to the MR users 6A, 6B, and 6C in the real conference room 21 (in other words, the mixed reality space 21) and the view provided to the MR users 6A, 6B, and 6C in the real conference room 21 (in other words, the mixed reality space 21) and the view provided to the MR users 6A, 6B, and 6C in the real conference room 21 The field of view provided to the VR user entering the virtual space 11 will be explained. FIG. 8 is a schematic diagram showing the state of the actual conference room 21 and the state of the virtual space 11 when the MR users 6A, 6B, 6C and the VR user are using the service. The upper part of FIG. 8 shows the state of the actual conference room 21, and the lower part of FIG. 8 shows the state of the virtual space 11. In addition, in FIG. 8, the VR avatar 25 is wearing the VR device 210, but this is to make the explanation easier to understand, and in reality, the VR avatar 25 is wearing the VR device 210 (virtual VR device 210) may not be attached. Further, in FIG. 8, the MR avatar 26 is not wearing the MR device 410 (virtual MR device 410), but the MR avatar 26 may be wearing the MR device 410.

図8に示されるように、会議室21には、現実オブジェクトとしての机8等が配置されている。また、会議室21には、3台の検出装置460が配置されている。また、会議室21には、3名のMRユーザ6A,6B,6Cが存在する。一方、会議室21には、VRユーザは存在しない。ここで、MRユーザ6A,6B,6Cのそれぞれが使用するMR装置410のディスプレイ411には、仮想オブジェクトとして、VRアバター25と、モックアップの仮想オブジェクト30(以下、「仮想模型30」ともいう。)とが表示される。すなわち、MR装置410では、透過型のディスプレイ411を介して見える現実の会議室21に、VRアバター25や仮想模型30が現れた表示がされる。このため、MRユーザ6A,6B,6Cには、実際には会議室21に存在しないVRアバター25や仮想模型30があたかも会議室21に存在するかのような視界が提供される。 As shown in FIG. 8, a desk 8 and the like as real objects are arranged in the conference room 21. Furthermore, three detection devices 460 are arranged in the conference room 21. Furthermore, three MR users 6A, 6B, and 6C are present in the conference room 21. On the other hand, there are no VR users in the conference room 21. Here, on the display 411 of the MR apparatus 410 used by each of the MR users 6A, 6B, and 6C, a VR avatar 25 and a mock-up virtual object 30 (hereinafter also referred to as "virtual model 30") are displayed as virtual objects. ) is displayed. That is, in the MR device 410, the VR avatar 25 and the virtual model 30 are displayed in the real conference room 21 that can be seen through the transparent display 411. Therefore, the MR users 6A, 6B, and 6C are provided with a view as if the VR avatar 25 and virtual model 30, which do not actually exist in the conference room 21, were present in the conference room 21.

また、VRユーザがVR装置210を介して見る仮想空間11は、会議室21を模したものであり、現実の会議室21に存在する机8の仮想オブジェクト31等を含んでいる。また、当該仮想空間11には、MRユーザ6A,6B,6CのMRアバター26A,26B,26Cや、仮想模型30等が配置される。このため、VRユーザには、あたかもMRユーザ6A,6B,6Cがいる会議室21に自身がいるかのような視界が提供される。 Further, the virtual space 11 that the VR user views via the VR device 210 imitates the conference room 21 and includes virtual objects 31 such as the desk 8 that exist in the actual conference room 21 . Further, in the virtual space 11, MR avatars 26A, 26B, 26C of the MR users 6A, 6B, 6C, a virtual model 30, etc. are arranged. Therefore, the VR user is provided with a view as if he or she were in the conference room 21 where the MR users 6A, 6B, and 6C are present.

このように、本実施形態の情報処理システム100では、MRユーザ6は、透過型のディスプレイ411を介して、実際に同じ場所に存在する他のMRユーザ6や現実オブジェクトが視認できる。また、その上で、MRユーザ6の視点では、仮想オブジェクトとして現れるVRユーザのVRアバター25が視認できる。このため、MRユーザ6は、現実世界にいる感覚を損なうことなく、VRユーザや他のMRユーザ6等とコミュニケーションを図ることができる。また、VRユーザは、現実世界においてMRユーザ6と異なる場所におり、このような場合、VRユーザのいる場所とMRユーザ6のいる場所とでは、部屋の形状等が異なる場合が多い。このため、VRユーザ側においても、MR装置410等を使用して現実空間にMRアバター26を表示させることとすると、違和感のある表示になってしまうおそれがある。本実施形態では、VRユーザは、仮想空間11に入り込み、MRユーザ6等とコミュニケーションを取ることができるので、このような違和感が生じることを防止できる。また、VRユーザに提供される仮想空間11は、MRユーザ6のいる場所を模したものであるため、VRユーザやMRユーザ6がそれぞれ仮想空間11または現実空間で動き回る場合や仮想オブジェクトを動かす場合に、相手方に対して表示されるアバターや仮想模型30等の動きが自然なものとなる。また、VRユーザやMRユーザ6は仮想模型30等の仮想オブジェクトを操作する場合に、相手方にどのように見えるのか等をイメージすることが容易となり、円滑なコミュニケーションを図ることが可能となる。 In this way, in the information processing system 100 of the present embodiment, the MR user 6 can visually recognize other MR users 6 and real objects actually existing at the same location through the transparent display 411. Further, from the viewpoint of the MR user 6, the VR avatar 25 of the VR user appearing as a virtual object can be visually recognized. Therefore, the MR user 6 can communicate with the VR user, other MR users 6, etc. without losing the feeling of being in the real world. Further, the VR user is in a different location from the MR user 6 in the real world, and in such a case, the shape of the room etc. is often different between the VR user's location and the MR user 6's location. For this reason, even on the VR user side, if the MR device 410 or the like is used to display the MR avatar 26 in real space, there is a risk that the display will look unnatural. In this embodiment, the VR user can enter the virtual space 11 and communicate with the MR user 6 and the like, so it is possible to prevent such discomfort from occurring. In addition, since the virtual space 11 provided to the VR user is a simulation of the location where the MR user 6 is, when the VR user and the MR user 6 move around in the virtual space 11 or the real space, respectively, or move virtual objects, In addition, the movements of the avatar, virtual model 30, etc. displayed to the other party become natural. Furthermore, when operating a virtual object such as the virtual model 30, the VR user or MR user 6 can easily imagine how it will appear to the other party, thereby facilitating smooth communication.

以下、図9を参照しながら、情報処理システム100の機能的構成について説明する。なお、図9に示す機能的構成は一例にすぎない。VRシステム200、MRシステム400、およびサーバ600のそれぞれは、他の装置が備える機能の少なくとも一部を備えていてもよい。換言すると、本実施形態においてコンピュータ300、コンピュータ500、およびサーバ600のそれぞれが備える機能ブロックの一部または全部を、コンピュータ300、コンピュータ500、サーバ600、またはその他の装置が備えていてもよい。また、コンピュータ300、コンピュータ500、およびサーバ600等の各装置は、一体の機器により実現されるものでなくてもよく、例えば、ネットワーク等を介して接続される複数の機器によって実現されてもよい。 The functional configuration of the information processing system 100 will be described below with reference to FIG. 9. Note that the functional configuration shown in FIG. 9 is only an example. Each of the VR system 200, MR system 400, and server 600 may have at least some of the functions provided by other devices. In other words, the computer 300, the computer 500, the server 600, or another device may include some or all of the functional blocks included in each of the computer 300, the computer 500, and the server 600 in this embodiment. Further, each device such as the computer 300, the computer 500, and the server 600 does not need to be realized by an integrated device, and may be realized by, for example, a plurality of devices connected via a network or the like. .

また、本実施形態では、プロセッサ301、プロセッサ501、またはプロセッサ601が、情報処理システム100に記憶されているプログラムを実行することによって、後述する各処理を行うものとして説明する。ただし、後述する処理であってプロセッサ301が行う処理のうちの少なくとも一部を、プロセッサ301とは別のプロセッサが実行するようにしてもよい。また、後述する処理であってプロセッサ501が行う処理のうちの少なくとも一部を、プロセッサ501とは別のプロセッサが実行するようにしてもよい。また、後述する処理であってプロセッサ601が行う処理のうちの少なくとも一部を、プロセッサ601とは別のプロセッサが実行するようにしてもよい。換言すると、本実施形態においてプログラムを実行するコンピュータは、コンピュータ300、コンピュータ500、およびサーバ600を含むいずれのコンピュータであってもよく、また、複数の装置の組み合わせにより実現されてもよい。 Further, in this embodiment, the processor 301, the processor 501, or the processor 601 will be described as performing each process described below by executing a program stored in the information processing system 100. However, at least a portion of the processing to be described later and performed by the processor 301 may be executed by a processor other than the processor 301. Further, at least a portion of the processing to be described later which is performed by the processor 501 may be executed by a processor other than the processor 501. Further, at least a part of the processing to be described later which is performed by the processor 601 may be executed by a processor other than the processor 601. In other words, the computer that executes the program in this embodiment may be any computer including the computer 300, the computer 500, and the server 600, or may be realized by a combination of multiple devices.

図9は、情報処理システム100の機能的構成を示すブロック図である。図9に示されるように、コンピュータ300(換言すると、VRシステム200)は、プロセッサ301、メモリ302、ストレージ303、入出力インターフェース304、および通信インターフェース305の協働によって、制御部310および記憶部311として機能する。また、コンピュータ500(換言すると、MRシステム400)は、プロセッサ501、メモリ502、ストレージ503、入出力インターフェース504、および通信インターフェース505の協働によって、制御部510および記憶部511として機能する。また、サーバ600は、プロセッサ601、メモリ602、ストレージ603、入出力インターフェース604、および通信インターフェース605の協働によって、制御部610および記憶部611として機能する。 FIG. 9 is a block diagram showing the functional configuration of the information processing system 100. As shown in FIG. 9, the computer 300 (in other words, the VR system 200) has a control unit 310, a storage unit 311, functions as Further, the computer 500 (in other words, the MR system 400) functions as a control unit 510 and a storage unit 511 through the cooperation of a processor 501, a memory 502, a storage 503, an input/output interface 504, and a communication interface 505. Further, the server 600 functions as a control unit 610 and a storage unit 611 through cooperation of a processor 601, a memory 602, a storage 603, an input/output interface 604, and a communication interface 605.

MRシステム400の制御部510は、仮想空間生成部810と、座標定義部812と、MR側入力受付部816と、ユーザ情報取得部818と、MR側オブジェクト制御部820と、表示制御部840と、音制御部845と、通信制御部850と、を備える。 The control unit 510 of the MR system 400 includes a virtual space generation unit 810, a coordinate definition unit 812, an MR side input reception unit 816, a user information acquisition unit 818, an MR side object control unit 820, and a display control unit 840. , a sound control section 845, and a communication control section 850.

仮想空間生成部810は、所定の現実空間に基づいて仮想空間(換言すると、仮想空間を表す仮想空間データ)を生成する。換言すると、仮想空間生成部810は、所定の現実空間を模した仮想空間を生成する。ここで、所定の現実空間とは、現実世界に存在する所定の場所であり、例えば、会議室、または学校の教室のような特定の部屋等であってもよい。また、所定の現実空間とは、例えば、学校、または家のような特定の建物等であってもよい。また、所定の現実空間とは、例えば、特定の町等であってもよい。換言すると、所定の現実空間とは、壁等によって仕切られた空間でなくてもよい。また、所定の現実空間を模したとは、生成される仮想空間が、現実空間の基本的な構造と同様の構造を有するものであればよい。具体的には、例えば、現実世界の会議室を模した仮想空間は、仮想空間としての仮想の部屋の形状(例えば、壁や床等の形状等)が現実世界の会議室の形状と略一致したものであって、現実世界の会議室に存在する机や椅子等の現実オブジェクトに対応する仮想オブジェクトが配置されたもの等とすることができる。このとき、机、椅子、壁、床等の仮想オブジェクトは、現実オブジェクトの形態を精密にコピーしたものでなくてもよく、例えば、形状、模様、または色彩等が簡略化されたものであってもよい。また、例えば、壁に貼られたポスターあるいは机や床等に置かれた小物等、現実オブジェクトには、仮想世界に表れないオブジェクト(対応する仮想オブジェクトが存在しない現実オブジェクト)が存在してもよい。 The virtual space generation unit 810 generates a virtual space (in other words, virtual space data representing the virtual space) based on a predetermined real space. In other words, the virtual space generation unit 810 generates a virtual space imitating a predetermined real space. Here, the predetermined real space is a predetermined place that exists in the real world, and may be, for example, a conference room or a specific room such as a school classroom. Further, the predetermined real space may be, for example, a school or a specific building such as a house. Further, the predetermined real space may be, for example, a specific town. In other words, the predetermined real space does not have to be a space partitioned off by a wall or the like. Moreover, imitating a predetermined real space may mean that the generated virtual space has a structure similar to the basic structure of the real space. Specifically, for example, in a virtual space that imitates a conference room in the real world, the shape of the virtual room as a virtual space (for example, the shape of walls, floors, etc.) approximately matches the shape of the conference room in the real world. It may be a virtual object in which virtual objects corresponding to real objects such as desks and chairs existing in a conference room in the real world are arranged. At this time, virtual objects such as desks, chairs, walls, floors, etc. do not need to be exact copies of the form of real objects; for example, they may have simplified shapes, patterns, colors, etc. Good too. Furthermore, for example, real objects may include objects that do not appear in the virtual world (real objects for which there is no corresponding virtual object), such as posters pasted on walls or small items placed on desks, floors, etc. .

本実施形態では、前述のように、所定の現実空間は、特定の会議室21であり、当該特定の会議室21を模した仮想空間11が生成されるものとして説明する。 In this embodiment, as described above, the predetermined real space is a specific conference room 21, and the virtual space 11 imitating the specific conference room 21 is generated.

現実空間を模した仮想空間を生成する方法については、公知の方法が利用でき、また特に限定されるものではないが、例えば以下のようにしてもよい。すなわち、仮想空間生成部810は、例えば、現実空間を構成する壁、床、机、椅子等の現実オブジェクトの形状や位置等を検出可能なセンサからの情報に基づいて仮想空間11を生成する。具体的には、仮想空間生成部810は、例えば、検出装置460またはMR装置410が備えるイメージセンサ(例えば、RGB画像を取得するイメージセンサ、白黒画像を取得するイメージセンサ、またはデプスセンサ等)からの情報に基づいて現実空間の3次元情報を取得し、仮想空間を生成してもよい。また、仮想空間生成部810は、仮想空間11の生成に、例えば、加速度センサ、角速度センサ、または地磁気センサ等の情報を用いてもよい。 As for the method of generating a virtual space imitating a real space, a known method can be used, and the method is not particularly limited, but for example, the following method may be used. That is, the virtual space generation unit 810 generates the virtual space 11 based on information from a sensor that can detect the shapes and positions of real objects such as walls, floors, desks, and chairs that make up the real space. Specifically, the virtual space generation unit 810 generates data from an image sensor included in the detection device 460 or the MR device 410 (for example, an image sensor that acquires an RGB image, an image sensor that acquires a monochrome image, or a depth sensor). A virtual space may be generated by acquiring three-dimensional information of the real space based on the information. Further, the virtual space generation unit 810 may use information from an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, or the like to generate the virtual space 11, for example.

仮想空間生成部810は、生成した仮想空間11を示すデータ(以下、「仮想空間データ」という。)を、例えば、仮想空間データ記憶部としての記憶部611に記憶させる。 The virtual space generation unit 810 stores data indicating the generated virtual space 11 (hereinafter referred to as “virtual space data”) in the storage unit 611 as a virtual space data storage unit, for example.

なお、仮想空間生成部810は、VRユーザやMRユーザ6がサービスの利用を開始するよりも前に、事前に仮想空間11を示す仮想空間データを生成してもよい。また、仮想空間生成部810は、例えば、VRユーザやMRユーザ6がサービスを利用している最中にリアルタイムで仮想空間11を示す仮想空間データを生成してもよい。 Note that the virtual space generation unit 810 may generate virtual space data indicating the virtual space 11 in advance before the VR user or MR user 6 starts using the service. Furthermore, the virtual space generation unit 810 may generate virtual space data indicating the virtual space 11 in real time while the VR user or MR user 6 is using the service, for example.

座標定義部812は、現実空間の座標(換言すると、複合現実空間21の座標。以下、「複合現実座標」という。)を定義する。また、座標定義部812は、仮想空間11の座標(以下、「仮想空間座標」という。)を定義する。 The coordinate definition unit 812 defines coordinates in the real space (in other words, coordinates in the mixed reality space 21; hereinafter referred to as "mixed reality coordinates"). Further, the coordinate definition unit 812 defines coordinates of the virtual space 11 (hereinafter referred to as "virtual space coordinates").

複合現実座標は、例えば、x軸、y軸、z軸の互いに直交する3軸を有する。仮想空間座標は、例えば、X軸、Y軸、Z軸の互いに直交する3軸を有する。座標定義部812は、現実空間(換言すると、現実の会議室21)の各地点に対応する(換言すると、同じ地点を示す)仮想空間11(換言すると、仮想の会議室)の各地点について、現実空間の各地点を示す複合現実座標と、仮想空間の各地点を示す仮想空間座標とが一対一で対応したものとなるように、各座標を定義する(換言すると対応付ける)。座標定義部812は、例えば、仮想空間生成部810が現実空間を模した仮想空間を生成する際に、複合現実座標と対応付けられた仮想空間座標を定義する。このとき、座標定義部812は、例えば、検出装置460またはMR装置410等によって検出される会議室の特徴点を基準として複合現実座標と仮想空間座標とを対応付けてもよい。また、座標定義部812は、例えば、検出装置460の位置あるいは会議室中に予め設置したマーカー等の位置を基準として複合現実座標と仮想空間座標とを対応付けてもよい。 Mixed reality coordinates have, for example, three mutually orthogonal axes: x-axis, y-axis, and z-axis. The virtual space coordinates have, for example, three mutually orthogonal axes: an X-axis, a Y-axis, and a Z-axis. For each point in the virtual space 11 (in other words, the virtual conference room) that corresponds to (in other words, indicates the same point) each point in the real space (in other words, the real conference room 21), the coordinate definition unit 812 Each coordinate is defined (in other words, they are associated) so that the mixed reality coordinates indicating each point in the real space and the virtual space coordinates indicating each point in the virtual space have a one-to-one correspondence. The coordinate definition unit 812 defines virtual space coordinates associated with mixed reality coordinates, for example, when the virtual space generation unit 810 generates a virtual space imitating a real space. At this time, the coordinate definition unit 812 may associate the mixed reality coordinates and the virtual space coordinates based on the feature points of the conference room detected by the detection device 460, the MR device 410, or the like, for example. Further, the coordinate definition unit 812 may associate the mixed reality coordinates and the virtual space coordinates based on, for example, the position of the detection device 460 or the position of a marker installed in advance in the conference room.

また、座標定義部812は、複合現実座標と仮想空間座標との対応関係(換言すると、現実空間の各地点と、仮想空間の各地点との対応関係)に関する情報を、対応関係記憶部としての記憶部611に記憶させる。 Further, the coordinate definition unit 812 stores information regarding the correspondence between mixed reality coordinates and virtual space coordinates (in other words, the correspondence between each point in the real space and each point in the virtual space) as a correspondence storage unit. The information is stored in the storage unit 611.

なお、複合現実座標や仮想空間座標を定義する方法としては、公知の方法が利用でき、また特に限定されるものではない。 Note that a known method can be used as a method for defining mixed reality coordinates and virtual space coordinates, and there are no particular limitations.

なお、複合現実座標を定義するタイミングや、仮想空間座標を定義するタイミング(換言すると、複合現実座標と仮想空間座標とを対応付けるタイミング)は、例えば、仮想空間生成部810が現実空間を模した仮想空間を生成するとき等であってもよく、MR装置410での仮想オブジェクトの表示開始のタイミング等であってもよい。 Note that the timing of defining mixed reality coordinates and the timing of defining virtual space coordinates (in other words, the timing of associating mixed reality coordinates and virtual space coordinates) may be, for example, when the virtual space generation unit 810 generates a virtual The timing may be when a space is generated, or the timing when the MR device 410 starts displaying a virtual object.

なお、仮想空間の生成や、各座標の定義等は、例えば、現実空間を高精度にスキャン可能な外部機器700としての専用の装置が予め行い、生成されたデータを記憶部611に記憶しておくこととしてもよい。 Note that the generation of the virtual space, the definition of each coordinate, etc. are performed in advance by a dedicated device as the external device 700 that can scan the real space with high precision, and the generated data is stored in the storage unit 611. You can also leave it there.

MR側入力受付部816は、MRユーザ6からの入力を受け付ける。換言すると、MR側入力受付部816は、MRユーザ6からの入力情報を取得する。具体的には、MR側入力受付部816は、検出装置460、コントローラ480、カメラ413、MRユーザが身につけるデバイス、注視センサ412、センサ417、センサ486、および検出装置460やMR装置410が備えるイメージセンサ等の出力を、MRユーザ6からの入力として受け付ける。換言すると、MR側入力受付部816は、MRユーザ6の動きを検出する検出手段(例えば、検出装置460、コントローラ480、カメラ413、注視センサ412、センサ417、センサ486、および検出装置460やMR装置410が備えるイメージセンサ等)の出力を、MRユーザ6からの入力として受け付ける。これらの装置やセンサは、後述するように、仮想空間11や複合現実空間21の仮想オブジェクト等を制御するために使用されるMRユーザ6の動きに関する情報等を取得するためのものであり、MRユーザ6は自身の動きによって、MRシステム400に対して当該仮想オブジェクト等を動かしたりするための情報を入力することが可能となっている。 The MR side input receiving unit 816 receives input from the MR user 6. In other words, the MR side input reception unit 816 acquires input information from the MR user 6. Specifically, the MR side input reception unit 816 includes the detection device 460, the controller 480, the camera 413, the device worn by the MR user, the gaze sensor 412, the sensor 417, the sensor 486, and the detection device 460 and the MR device 410. The output of the provided image sensor or the like is accepted as input from the MR user 6. In other words, the MR-side input receiving unit 816 detects the motion of the MR user 6 (for example, the detection device 460, the controller 480, the camera 413, the gaze sensor 412, the sensor 417, the sensor 486, and the detection device 460 or the MR The output of an image sensor (such as an image sensor included in the device 410) is received as an input from the MR user 6. These devices and sensors are for acquiring information regarding the movement of the MR user 6, which is used to control virtual objects in the virtual space 11 and the mixed reality space 21, as will be described later. The user 6 can input information for moving the virtual object etc. to the MR system 400 by his/her own movements.

具体的には、MR側入力受付部816は、例えば、検出装置460としてのカメラまたはカメラ413からの出力を、MRユーザ6からの入力として受け付けてもよい。より具体的には、MR側入力受付部816は、例えば、これらの各カメラが備えるイメージセンサによって撮影される画像から画像認識によって検出される、複合現実空間21中のMRユーザ6の位置を示す位置情報を、MRユーザ6からの入力として受け付けてもよい。換言すると、MR側入力受付部816は、複合現実空間21中のMRユーザ6の位置を検出する位置検出手段からの出力をMRユーザ6からの入力として受け付けてもよい。なお、当該位置検出手段は、例えば、MR装置410とMRシステム400の所定の装置(例えば、検出装置460やビーコン(図示せず)等)との間での無線通信(例えば、Wi-Fi通信、Bluetooth通信、またはUWB通信)に基づく測位、あるいはMR装置410の備えるGPS(Global Positioning System)センサを用いた測位等に基づいて、MRユーザ6の位置を検出し、当該位置情報を取得するもの等であってもよい。なお、MRユーザ6の位置を示す位置情報は、MRユーザ6の動きに関する情報ともいえる。 Specifically, the MR-side input reception unit 816 may receive, for example, a camera serving as the detection device 460 or an output from the camera 413 as an input from the MR user 6. More specifically, the MR side input reception unit 816 indicates the position of the MR user 6 in the mixed reality space 21, which is detected by image recognition from images taken by image sensors included in each of these cameras, for example. The position information may be received as input from the MR user 6. In other words, the MR side input receiving unit 816 may receive an output from a position detection means for detecting the position of the MR user 6 in the mixed reality space 21 as an input from the MR user 6. Note that the position detecting means, for example, performs wireless communication (for example, Wi-Fi communication) between the MR device 410 and a predetermined device (for example, the detection device 460, a beacon (not shown), etc.) of the MR system 400. , Bluetooth communication, or UWB communication), or positioning using a GPS (Global Positioning System) sensor included in the MR device 410, to detect the position of the MR user 6 and obtain the position information. etc. may be used. Note that the position information indicating the position of the MR user 6 can also be said to be information regarding the movement of the MR user 6.

また、MR側入力受付部816は、例えば、検出装置460としてのカメラまたはカメラ413が備えるイメージセンサによって撮影される画像から画像認識によって検出されるMRユーザ6の動きに関する情報を、MRユーザ6からの入力として受け付けてもよい。例えば、MR側入力受付部816は、画像認識によって検出されるMRユーザ6の手の動きに関する情報や、MRユーザ6の傾きや向いている方向に関する情報を、MRユーザ6からの入力として受け付けてもよい。 Further, the MR side input reception unit 816 receives, from the MR user 6, information regarding the movement of the MR user 6, which is detected by image recognition from an image taken by a camera as the detection device 460 or an image sensor included in the camera 413, for example. may be accepted as input. For example, the MR side input reception unit 816 receives information regarding the hand movements of the MR user 6 detected by image recognition, information regarding the inclination of the MR user 6, and the direction in which the MR user 6 is facing, as input from the MR user 6. Good too.

また、MR側入力受付部816は、例えば、MRユーザ6が身につけるデバイス等(例えば、時計型、リストバンド型、指輪型、もしくは衣服型等のウェアラブルデバイス、または体内埋め込み型のデバイス等)の、MRユーザ6の動きをトラッキング可能とする機器(および当該機器と近距離無線通信等により連携してMRユーザ6の動きをトラッキングする機器)を用いて取得されるMRユーザ6の動きに関する情報を、MRユーザ6からの入力として受け付けてもよい。 Further, the MR side input reception unit 816 may be configured to include, for example, a device worn by the MR user 6 (for example, a watch-type, wristband-type, ring-type, or clothing-type wearable device, or a device implanted in the body). Information regarding the movement of the MR user 6 obtained using a device that is capable of tracking the movement of the MR user 6 (and a device that tracks the movement of the MR user 6 in cooperation with the device through short-range wireless communication, etc.) may be accepted as an input from the MR user 6.

また、MR側入力受付部816は、例えば、コントローラ480により検出されるMRユーザ6の操作を示す情報(換言すると、MRユーザ6の動きに関する情報)を、MRユーザ6からの入力として受け付けてもよい。 Further, the MR side input reception unit 816 may accept, for example, information indicating the operation of the MR user 6 detected by the controller 480 (in other words, information regarding the movement of the MR user 6) as an input from the MR user 6. good.

また、MR側入力受付部816は、例えば、検出装置460またはMR装置410の備えるセンサ(例えば、加速度センサ、角速度センサ、地磁気センサ等)からの、MR装置410の傾きや向いている方向に関する出力データ(換言すると、MRユーザ6の動きに関する情報)をMRユーザ6からの入力として受け付けてもよい。 The MR side input receiving unit 816 also receives outputs related to the inclination and facing direction of the MR device 410 from the detection device 460 or the sensors (for example, acceleration sensor, angular velocity sensor, geomagnetic sensor, etc.) included in the MR device 410. Data (in other words, information regarding the movements of the MR user 6) may be accepted as input from the MR user 6.

ユーザ情報取得部818は、複合現実空間21中に存在するMRユーザ6に関する情報を取得する。具体的には、例えば、ユーザ情報取得部818は、複合現実空間21中の各MRユーザ6A,6B,6Cを識別可能とする識別情報(換言すると、各MR装置410を識別可能とする識別情報)を取得する。例えば、ユーザ情報取得部818は、各ユーザが身につけているMR装置410と通信を行い、MR装置410からMR装置410を使用しているユーザの情報(例えば、MR装置410にログインしているアカウントの情報等)を、当該識別情報として取得してもよい。また、例えば、ユーザ情報取得部818は、各ユーザが身につけているMR装置410と通信を行い、MR装置410から各MR装置410を識別可能とする各MR装置410固有の情報を、当該識別情報として取得してもよい。また、例えば、ユーザ情報取得部818は、検出装置460またはMR装置410が備えるイメージセンサによって撮影される画像から画像認識によって複合現実空間21中のMRユーザ6を識別することで、当該識別情報を取得してもよい。また、ユーザ情報取得部818は、MR側入力受付部816が取得する情報を、当該識別情報に関連付ける。換言すると、ユーザ情報取得部818は、MRユーザ6の動きに関する情報等が、後述する仮想オブジェクトの制御等において使用される際に、どのMRユーザ6の情報か把握可能となるように制御する。 The user information acquisition unit 818 acquires information regarding the MR user 6 existing in the mixed reality space 21. Specifically, for example, the user information acquisition unit 818 acquires identification information that allows each MR user 6A, 6B, and 6C in the mixed reality space 21 to be identified (in other words, identification information that allows each MR device 410 to be identified). ) to obtain. For example, the user information acquisition unit 818 communicates with the MR device 410 worn by each user, and receives information from the MR device 410 about the user using the MR device 410 (for example, who is logged in to the MR device 410? account information, etc.) may be acquired as the identification information. Further, for example, the user information acquisition unit 818 communicates with the MR device 410 worn by each user, and acquires information unique to each MR device 410 that allows each MR device 410 to be identified from the MR device 410. It may be obtained as information. Further, for example, the user information acquisition unit 818 identifies the MR user 6 in the mixed reality space 21 by image recognition from an image captured by an image sensor included in the detection device 460 or the MR device 410, and obtains the identification information. You may obtain it. Further, the user information acquisition unit 818 associates the information acquired by the MR side input reception unit 816 with the identification information. In other words, the user information acquisition unit 818 performs control so that when information regarding the movement of the MR user 6 is used in controlling a virtual object, which will be described later, it is possible to determine which MR user 6's information belongs.

MR側オブジェクト制御部820は、複合現実空間21中の仮想オブジェクトを制御する。 The MR side object control unit 820 controls virtual objects in the mixed reality space 21.

MR側オブジェクト制御部820は、複合現実空間21に、仮想オブジェクトを配置する。具体的には、MR側オブジェクト制御部820は、例えば、VRユーザのVRアバター25や、VRユーザまたはMRユーザ6の少なくとも一方によって所定の変化が与えられるオブジェクト等を配置する。本実施形態では、MR側オブジェクト制御部820は、図8に示されるように、VRアバター25と、VRユーザおよびMRユーザ6によって動かされたりするモックアップの仮想オブジェクト30(以下、「仮想模型30」ともいう。)とを、複合現実空間21に配置する。 The MR side object control unit 820 arranges a virtual object in the mixed reality space 21. Specifically, the MR side object control unit 820 arranges, for example, the VR user's VR avatar 25, an object to which a predetermined change is given by at least one of the VR user or the MR user 6, and the like. In this embodiment, as shown in FIG. ) are placed in the mixed reality space 21.

MR側オブジェクト制御部820は、例えば、仮想空間11中における仮想オブジェクトが配置される位置に対応する複合現実空間21中の位置に、当該仮想オブジェクトに対応する仮想オブジェクトを配置する。ここで、当該仮想オブジェクトに対応する仮想オブジェクト、すなわち仮想空間11中の仮想オブジェクトに対応する複合現実空間21中の仮想オブジェクトとは、例えば、仮想空間11中の仮想オブジェクトと同じ形態を有するもの(換言すると、同じ物体を示すもの)であってもよく、異なる形態を有するものであってもよい。本実施形態では、複合現実空間21には、仮想空間11中の仮想模型30と同じ形態の仮想模型30が配置される。また、複合現実空間21には、仮想空間11中のVRアバター25と同じ形態のVRアバター25が配置される。 For example, the MR-side object control unit 820 places a virtual object corresponding to the virtual object at a position in the mixed reality space 21 that corresponds to a position in the virtual space 11 where the virtual object is placed. Here, the virtual object corresponding to the virtual object, that is, the virtual object in the mixed reality space 21 corresponding to the virtual object in the virtual space 11, is, for example, a virtual object having the same form as the virtual object in the virtual space 11 ( In other words, they may represent the same object) or may have different forms. In this embodiment, a virtual model 30 having the same form as the virtual model 30 in the virtual space 11 is arranged in the mixed reality space 21 . Further, in the mixed reality space 21, a VR avatar 25 having the same form as the VR avatar 25 in the virtual space 11 is arranged.

なお、複合現実空間21へのVRアバター25の配置については、以下のようにもいえる。すなわち、MR側オブジェクト制御部820は、仮想空間11中のVRユーザの位置に対応する複合現実空間21中の位置に、当該VRアバター25を配置するともいえる。ここで、仮想空間11中におけるVRユーザの位置とは、例えば、仮想空間11中のVRアバター25の位置である。なお、VRユーザが、一人称視点で仮想空間11に入り込むコンテンツにおいては、自身(VRアバター25)の姿を視認できない場合(具体的には、手などの一部しか視認できない場合や、一部すら視認できない場合)もあり得るが、このような場合についても、コンピュータ300が認識する仮想空間11中のVRユーザはVRアバター25といえ、コンピュータ300が認識する仮想空間11中のVRユーザの位置は仮想空間中のVRアバター25の位置といえる。 Note that the arrangement of the VR avatar 25 in the mixed reality space 21 can be said as follows. That is, it can be said that the MR-side object control unit 820 places the VR avatar 25 at a position in the mixed reality space 21 that corresponds to the position of the VR user in the virtual space 11. Here, the position of the VR user in the virtual space 11 is, for example, the position of the VR avatar 25 in the virtual space 11. In addition, in content where the VR user enters the virtual space 11 from a first-person perspective, if the VR user cannot see himself (VR avatar 25) (specifically, if only a part of the hand, etc. However, even in such a case, the VR user in the virtual space 11 recognized by the computer 300 can be said to be the VR avatar 25, and the position of the VR user in the virtual space 11 recognized by the computer 300 is This can be said to be the position of the VR avatar 25 in the virtual space.

なお、VRアバター25の外見(換言すると、形態)は、VRユーザの外見を模したものでもよいが、模したものでなくてもよい。例えば、VRアバター25の外見は、所定の動物の外見を模したもの等であってもよい。また、仮想空間11中に配置されるVRアバター25と、複合現実空間21中に配置されるVRアバター25とは、外見が異なっていてもよい。このような構成によれば、VRユーザは、仮想空間11中の自身のアバターの形態を隠したまま複合現実空間21中に自身のアバターを表示させること等ができる。なお、ここで仮想空間11中に配置されるVRアバター25の外見とは、当該VRアバター25を操作するVRユーザに視認される外見であってもよく、当該VRアバター25が存在する仮想空間11に存在する、他のVRアバター25を操作する他のVRユーザに視認される外見等であってもよい。 Note that the appearance (in other words, form) of the VR avatar 25 may or may not imitate the appearance of the VR user. For example, the appearance of the VR avatar 25 may be one that imitates the appearance of a predetermined animal. Further, the VR avatar 25 placed in the virtual space 11 and the VR avatar 25 placed in the mixed reality space 21 may have different appearances. According to such a configuration, the VR user can display his/her own avatar in the mixed reality space 21 while keeping the form of his or her avatar in the virtual space 11 hidden. Note that the appearance of the VR avatar 25 placed in the virtual space 11 may be the appearance visually recognized by the VR user who operates the VR avatar 25, and the appearance of the VR avatar 25 placed in the virtual space 11 may be the appearance visually recognized by the VR user who operates the VR avatar 25. It may also be an appearance that is visible to other VR users operating other VR avatars 25 that exist in the VR avatar 25 .

また、MR側オブジェクト制御部820は、例えば、以下のようにして仮想オブジェクトを複合現実空間21中に配置してもよい。 Further, the MR-side object control unit 820 may arrange the virtual object in the mixed reality space 21 as follows, for example.

すなわち、例えば、VRアバター25を配置する場合に、MR側オブジェクト制御部820は、仮想空間11中のVRユーザ(換言すると、VRアバター25)の位置を示す位置情報に基づいて、複合現実空間21中のどの位置に配置するかを決定する。具体的には、例えば、後述するVR側オブジェクト制御部920は、仮想空間11中にVRアバター25を配置すると、仮想空間11中のVRアバター25の位置(例えば、仮想空間座標の座標値)に関する情報を、サーバ600を介してMR側オブジェクト制御部820に送信する。そして、MR側オブジェクト制御部820は、当該情報に基づいて、仮想空間11中のVRユーザの位置に対応する複合現実空間21中の位置(例えば、前記仮想空間座標の座標値に対応する複合現実座標の座標値の位置)に、VRアバター25を配置する。これにより、VRアバター25が、仮想空間11と複合現実空間21とで、会議室中の同じ位置に配置されることとなる。 That is, for example, when placing the VR avatar 25, the MR-side object control unit 820 arranges the mixed reality space 21 based on position information indicating the position of the VR user (in other words, the VR avatar 25) in the virtual space 11. Decide where to place it inside. Specifically, for example, when the VR avatar 25 is placed in the virtual space 11, the VR-side object control unit 920, which will be described later, determines the position of the VR avatar 25 in the virtual space 11 (for example, coordinate values of virtual space coordinates). The information is transmitted to the MR side object control unit 820 via the server 600. Based on the information, the MR side object control unit 820 determines the position in the mixed reality space 21 corresponding to the position of the VR user in the virtual space 11 (for example, the mixed reality corresponding to the coordinate values of the virtual space coordinates). The VR avatar 25 is placed at the coordinate value position). As a result, the VR avatar 25 is placed at the same position in the conference room in the virtual space 11 and the mixed reality space 21.

換言すると、仮想オブジェクト(例えば、VRアバター25または仮想模型30等)を複合現実空間21中に配置する場合に、MR側オブジェクト制御部820は、当該仮想オブジェクトに対応する仮想空間中の仮想オブジェクト(例えば、VRアバター25または仮想模型30等)の位置を示す位置情報(例えば、VR側オブジェクト制御部920が送信する位置情報)に基づいて、複合現実空間21中のどの位置に配置するかを決定してもよい。 In other words, when placing a virtual object (for example, the VR avatar 25 or the virtual model 30, etc.) in the mixed reality space 21, the MR side object control unit 820 controls the virtual object ( For example, the position in the mixed reality space 21 to place the VR avatar 25 or the virtual model 30, etc.) is determined based on the position information indicating the position (for example, the position information transmitted by the VR-side object control unit 920). You may.

また、例えば、仮想オブジェクトを複合現実空間21中に配置する場合に、MR側オブジェクト制御部820は、MRシステム400の所定のセンサが検出した情報に基づいて、複合現実空間21中のどの位置に配置するかを決定してもよい。具体的には、例えば、現実空間中に所定のマーカーを予め設置しておき、MR側オブジェクト制御部820は、検出装置460またはMR装置410が備えるイメージセンサによって撮影される当該マーカーの位置に、仮想オブジェクトとしての仮想模型30を配置するなどしてもよい。また、MR側オブジェクト制御部820は、MRユーザ6が指示した位置に、仮想オブジェクトとしての仮想模型30を配置するなどしてもよい。当該指示は、所定のジェスチャー等(例えば、仮想模型30を配置する地点を指差すジェスチャーなど)により行われるものであってもよく、前記マーカを配置するもの等であってもよい。また、MR側オブジェクト制御部820は、検出装置460またはMR装置410が備えるイメージセンサによって撮影される画像等から複合現実空間21中の平坦面を検出し、当該平坦面上に仮想模型30を配置するなどしてもよい。 Further, for example, when placing a virtual object in the mixed reality space 21, the MR side object control unit 820 determines which position in the mixed reality space 21 it should be placed based on information detected by a predetermined sensor of the MR system 400. You may decide where to place it. Specifically, for example, a predetermined marker is installed in advance in the real space, and the MR side object control unit 820 places the marker at the position photographed by the image sensor included in the detection device 460 or the MR device 410. A virtual model 30 as a virtual object may be arranged. Further, the MR-side object control unit 820 may place the virtual model 30 as a virtual object at a position specified by the MR user 6. The instruction may be given by a predetermined gesture or the like (for example, a gesture pointing to a point where the virtual model 30 is to be placed), or by placing the marker. Further, the MR side object control unit 820 detects a flat surface in the mixed reality space 21 from an image captured by an image sensor included in the detection device 460 or the MR device 410, and arranges the virtual model 30 on the flat surface. You may also do this.

なお、MR側オブジェクト制御部820は、仮想オブジェクトを複合現実空間21中に配置する場合に、仮想オブジェクトの形態を示すオブジェクトデータを受信し、当該オブジェクトデータに基づいて仮想オブジェクトを配置する。ここで、MR側オブジェクト制御部820は、オブジェクトデータを、例えば、サーバ600の制御部610から受信してもよく、VRシステム200のVR側オブジェクト制御部920から受信してもよい。具体的には、MR側オブジェクト制御部820は、VRアバター25を複合現実空間21中に配置する際に、VRアバター25の形態を示すオブジェクトデータを制御部610から受け取り、当該オブジェクトデータの示す形態のVRアバター25を複合現実空間21に配置してもよい。また、MR側オブジェクト制御部820は、VRアバター25を複合現実空間21中に配置する際に、VRアバター25の形態を示すオブジェクトデータをVR側オブジェクト制御部920から受け取り、当該オブジェクトデータの示す形態のVRアバター25を複合現実空間21に配置してもよい。 Note that when placing a virtual object in the mixed reality space 21, the MR side object control unit 820 receives object data indicating the form of the virtual object, and places the virtual object based on the object data. Here, the MR-side object control unit 820 may receive object data from, for example, the control unit 610 of the server 600 or the VR-side object control unit 920 of the VR system 200. Specifically, when arranging the VR avatar 25 in the mixed reality space 21, the MR side object control unit 820 receives object data indicating the form of the VR avatar 25 from the control unit 610, and receives the object data indicating the form of the object data. The VR avatar 25 may be placed in the mixed reality space 21. Furthermore, when arranging the VR avatar 25 in the mixed reality space 21, the MR side object control unit 820 receives object data indicating the form of the VR avatar 25 from the VR side object control unit 920, and receives the form indicated by the object data. The VR avatar 25 may be placed in the mixed reality space 21.

表示制御部840は、MR装置410のディスプレイ411における画像表示を制御する。表示制御部840は、MR側オブジェクト制御部820が配置した複合現実空間21中の仮想オブジェクトを、MR側オブジェクト制御部820が配置した位置に表示させるための画像を生成する。また、表示制御部840は、当該画像をディスプレイ411に表示させる。これにより、現実空間の所望の位置に仮想オブジェクトが配置された複合現実空間のビューがMRユーザ6に提供される。 Display control unit 840 controls image display on display 411 of MR apparatus 410. The display control unit 840 generates an image for displaying the virtual object in the mixed reality space 21 placed by the MR side object control unit 820 at the position placed by the MR side object control unit 820. Furthermore, the display control unit 840 causes the display 411 to display the image. As a result, the MR user 6 is provided with a view of the mixed reality space in which the virtual object is placed at a desired position in the real space.

また、表示制御部840は、ディスプレイ470における画像表示を制御する。表示制御部840は、例えば、ディスプレイ411に表示されている画像と同様の画像をディスプレイ470に表示させる。なお、表示制御部840は、MR装置410がMRユーザ6に提供する複合現実空間のビューを示す画像をディスプレイ470に表示させてもよい。 Further, the display control unit 840 controls image display on the display 470. For example, the display control unit 840 causes the display 470 to display an image similar to the image displayed on the display 411. Note that the display control unit 840 may cause the display 470 to display an image showing a view of the mixed reality space that the MR device 410 provides to the MR user 6.

音制御部845は、MR装置410のマイク415によって、MRユーザ6の発話が検出されると、当該発話に対応する音データを取得する。また、音制御部845は、取得した音データを、ネットワーク2を介してコンピュータ300等に送信する。また、音制御部845は、ネットワーク2を介してコンピュータ300から音データを受信すると、当該音データに対応する音(発話)をスピーカ416から出力する。これにより、MRユーザ6は、例えば、VRユーザと通話によるコミュニケーションを行うことが可能となっている。なお、MR側入力受付部816は、マイク415が検出したMRユーザ6の発話に関する音データを、MRユーザ6からの入力として受け付けてもよい。 When the utterance of the MR user 6 is detected by the microphone 415 of the MR device 410, the sound control unit 845 acquires sound data corresponding to the utterance. Further, the sound control unit 845 transmits the acquired sound data to the computer 300 etc. via the network 2. Furthermore, upon receiving sound data from the computer 300 via the network 2, the sound control unit 845 outputs sound (speech) corresponding to the sound data from the speaker 416. This allows the MR user 6 to communicate with the VR user by telephone, for example. Note that the MR-side input receiving unit 816 may receive sound data related to the utterance of the MR user 6 detected by the microphone 415 as an input from the MR user 6.

通信制御部850は、ネットワーク2を介して、サーバ600、コンピュータ300その他の情報通信装置と通信し得る。通信制御部850は、例えば、サーバ600またはコンピュータ300に、サーバ600またはコンピュータ300で使用される情報を送信する。また、通信制御部850は、例えば、サーバ600またはコンピュータ300から、コンピュータ500で使用される情報を受信する。 The communication control unit 850 can communicate with the server 600, the computer 300, and other information communication devices via the network 2. Communication control unit 850 transmits information used by server 600 or computer 300 to server 600 or computer 300, for example. Further, the communication control unit 850 receives information used by the computer 500 from the server 600 or the computer 300, for example.

VRシステム200の制御部310は、VR側入力受付部916と、VR側オブジェクト制御部920と、仮想カメラ制御部930と、表示制御部940と、音制御部945と、通信制御部950と、を備える。 The control unit 310 of the VR system 200 includes a VR side input reception unit 916, a VR side object control unit 920, a virtual camera control unit 930, a display control unit 940, a sound control unit 945, a communication control unit 950, Equipped with

VR側入力受付部916は、VRユーザからの入力を受け付ける。換言すると、VR側入力受付部916は、VRユーザからの入力情報を取得する。具体的には、VR側入力受付部916は、検出装置260、コントローラ280、第1カメラ213、第2カメラ214、VRユーザが身につけるウェアラブルデバイス、注視センサ212、センサ217、センサ286、および検出装置260やVR装置210が備えるイメージセンサ等の出力を、VRユーザからの入力として受け付ける。換言すると、VR側入力受付部916は、VRユーザの動きを検出する検出手段(例えば、検出装置260、コントローラ280、第1カメラ213、第2カメラ214、VRユーザが身につけるウェアラブルデバイス、注視センサ212、センサ217、センサ286、および検出装置260やVR装置210が備えるイメージセンサ等)の出力を、VRユーザからの入力として受け付ける。これらの装置やセンサは、後述するように、仮想空間11や複合現実空間21の仮想オブジェクト等を制御するために使用されるVRユーザの動きに関する情報等を取得するためのものであり、VRユーザは自身の動きによって、VRシステム200に対して当該仮想オブジェクト等を動かしたりするための情報を入力することが可能となっている。 The VR-side input reception unit 916 receives input from a VR user. In other words, the VR side input reception unit 916 acquires input information from the VR user. Specifically, the VR side input reception unit 916 includes the detection device 260, the controller 280, the first camera 213, the second camera 214, the wearable device worn by the VR user, the gaze sensor 212, the sensor 217, the sensor 286, and The output of the detection device 260, the image sensor, etc. included in the VR device 210 is accepted as input from the VR user. In other words, the VR side input reception unit 916 uses detection means for detecting the movement of the VR user (for example, the detection device 260, the controller 280, the first camera 213, the second camera 214, the wearable device worn by the VR user, the gaze The outputs of the sensors 212, 217, 286, image sensors included in the detection device 260 and the VR device 210, etc.) are accepted as inputs from the VR user. As described later, these devices and sensors are for acquiring information regarding the movements of the VR user, which is used to control virtual objects, etc. in the virtual space 11 and the mixed reality space 21. It is possible to input information for moving the virtual object etc. to the VR system 200 by the user's own movements.

具体的には、VR側入力受付部916は、例えば、検出装置260としてのカメラまたはVR装置210の備えるVR装置210の周囲を撮影するカメラからの出力を、VRユーザからの入力として受け付けてもよい。より具体的には、VR側入力受付部916は、これらの各カメラが備えるイメージセンサによって撮影される画像から画像認識によって検出される、現実空間におけるVRユーザの位置を示す位置情報を、VRユーザからの入力として受け付けてもよい。換言すると、VR側入力受付部916は、VRユーザの現実空間における位置を検出する位置検出手段からの出力をVRユーザからの入力として受け付けてもよい。なお、当該位置検出手段は、例えば、VR装置210とVRシステム200の所定の装置(例えば、検出装置260やビーコン(図示せず)等)との間での無線通信(例えば、Wi-Fi通信、Bluetooth通信、またはUWB通信)に基づく測位、あるいはVR装置210の備えるGPS(Global Positioning System)センサを用いた測位等に基づいて、VRユーザの位置を検出し、当該位置情報を取得するもの等であってもよい。なお、VRユーザの位置を示す位置情報は、VRユーザの動きに関する情報ともいえる。 Specifically, the VR side input reception unit 916 may accept, for example, an output from a camera as the detection device 260 or a camera included in the VR device 210 that photographs the surroundings of the VR device 210 as an input from a VR user. good. More specifically, the VR side input reception unit 916 inputs position information indicating the position of the VR user in real space, which is detected by image recognition from images taken by image sensors included in each of these cameras, to the VR user. It may also be accepted as input from In other words, the VR-side input reception unit 916 may receive an output from a position detection means that detects the position of the VR user in real space as an input from the VR user. Note that the position detection means, for example, performs wireless communication (for example, Wi-Fi communication) between the VR device 210 and a predetermined device of the VR system 200 (for example, the detection device 260, a beacon (not shown), etc.). , Bluetooth communication, or UWB communication), or one that detects the position of the VR user based on positioning using a GPS (Global Positioning System) sensor included in the VR device 210, and acquires the position information. It may be. Note that the position information indicating the position of the VR user can also be said to be information regarding the movement of the VR user.

また、VR側入力受付部916は、例えば、検出装置260としてのカメラまたはVR装置210の備えるVR装置210の周囲を撮影するカメラが備えるイメージセンサによって撮影される画像から画像認識によって検出されるVRユーザの動きに関する情報を、VRユーザからの入力として受け付けてもよい。例えば、VR側入力受付部916は、画像認識によって検出されるVRユーザの手の動きに関する情報や、VRユーザの傾きや向いている方向に関する情報を、VRユーザからの入力として受け付けてもよい。 Further, the VR-side input reception unit 916 may be configured to receive a VR image detected by image recognition from an image captured by a camera as the detection device 260 or an image sensor included in a camera that captures the surroundings of the VR device 210 included in the VR device 210. Information regarding the user's movements may be accepted as input from the VR user. For example, the VR-side input reception unit 916 may receive information regarding the movement of the VR user's hand detected by image recognition, or information regarding the tilt or direction of the VR user as input from the VR user.

また、VR側入力受付部916は、例えば、VRユーザが身につけるデバイス等(例えば、時計型、リストバンド型、指輪型、もしくは衣服型等のウェアラブルデバイス、または体内埋め込み型のデバイス等)の、VRユーザの動きをトラッキング可能とする機器(および当該機器と近距離無線通信等により連携してMRユーザ6の動きをトラッキングする機器)を用いて取得されるユーザの動きに関する情報を、VRユーザからの入力として受け付けてもよい。 Further, the VR-side input reception unit 916 is configured to input, for example, a device worn by a VR user (for example, a wearable device such as a watch, wristband, ring, or clothing type, or a device implanted in the body). , information regarding the user's movement obtained using a device that is capable of tracking the movement of the VR user (and a device that tracks the movement of the MR user 6 in cooperation with the device through short-range wireless communication, etc.) is transmitted to the VR user. It may also be accepted as input from

また、VR側入力受付部916は、例えば、コントローラ280により検出されるVRユーザの操作を示す情報(換言すると、VRユーザの動きに関する情報)を、VRユーザからの入力として受け付けてもよい。 Further, the VR-side input reception unit 916 may receive, for example, information indicating the VR user's operation detected by the controller 280 (in other words, information regarding the VR user's movement) as an input from the VR user.

また、VR側入力受付部916は、例えば、検出装置260またはVR装置210の備えるセンサ(例えば、加速度センサ、角速度センサ、地磁気センサ等)からの、VR装置210の傾きや向いている方向に関する出力データ(換言すると、VRユーザの動きに関する情報)をVRユーザからの入力として受け付けてもよい。 Further, the VR side input reception unit 916 may output, for example, an output from the detection device 260 or a sensor (for example, an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, etc.) included in the VR device 210 regarding the inclination or facing direction of the VR device 210. Data (in other words, information regarding the movements of the VR user) may be accepted as input from the VR user.

制御部310は、仮想空間11を制御する。制御部310は、記憶部611に記憶された仮想空間11を示す仮想空間データを取得し、当該仮想空間データに基づいてVRユーザに提供する仮想空間11を定義する。 The control unit 310 controls the virtual space 11. The control unit 310 acquires virtual space data indicating the virtual space 11 stored in the storage unit 611, and defines the virtual space 11 to be provided to the VR user based on the virtual space data.

VR側オブジェクト制御部920は、仮想空間11中の仮想オブジェクトを制御する。 The VR-side object control unit 920 controls virtual objects in the virtual space 11.

VR側オブジェクト制御部920は、仮想空間データの示す仮想空間11に、仮想オブジェクトを配置する。仮想オブジェクトを示すオブジェクトデータは、例えば、オブジェクトデータ記憶部としての記憶部611または記憶部311に記憶されている。そして、VR側オブジェクト制御部920は、当該オブジェクトデータを用いて、仮想空間11に仮想オブジェクトを配置する。 The VR-side object control unit 920 places a virtual object in the virtual space 11 indicated by the virtual space data. Object data indicating a virtual object is stored in, for example, the storage unit 611 or the storage unit 311 as an object data storage unit. Then, the VR-side object control unit 920 places the virtual object in the virtual space 11 using the object data.

具体的には、VR側オブジェクト制御部920は、例えば、仮想的な会議室内に、MRユーザ6A,6B,6CのMRアバター26A,26B,26Cや、VRユーザまたはMRユーザ6の少なくとも一方によって所定の変化が与えられる仮想オブジェクト等を配置する。本実施形態では、VR側オブジェクト制御部920は、VRアバター25と、MRアバター26と、VRユーザおよびMRユーザ6によって動かされたりするモックアップの仮想オブジェクト30(以下、「仮想模型30」ともいう。)とを、仮想空間11に配置する。なお、仮想空間11には、現実オブジェクトとしての机8に対応する仮想オブジェクト31等も配置される。 Specifically, the VR-side object control unit 920 controls the MR avatars 26A, 26B, and 26C of the MR users 6A, 6B, and 6C, and at least one of the VR users and the MR users 6 to create a predetermined object in the virtual conference room. A virtual object etc. that can be given a change is placed. In the present embodiment, the VR-side object control unit 920 controls a mock-up virtual object 30 (hereinafter also referred to as "virtual model 30") that is moved by the VR avatar 25, the MR avatar 26, the VR user, and the MR user 6. ) are placed in the virtual space 11. Note that virtual objects 31 and the like corresponding to the desk 8 as a real object are also arranged in the virtual space 11.

なお、例えば、VRユーザの使用するVRシステム200(換言すると、コンピュータ300)に、ネットワーク2を介して他のVRユーザが使用するVRシステム200(換言すると、コンピュータ300)が接続される場合、VR側オブジェクト制御部920は、仮想空間11に、当該他のVRユーザのVRアバター25を配置してもよい。他のVRユーザのVRアバター25は、当該他のVRユーザによって操作され得る。 Note that, for example, when the VR system 200 (in other words, computer 300) used by a VR user is connected to the VR system 200 (in other words, computer 300) used by another VR user via the network 2, the VR The side object control unit 920 may arrange the VR avatar 25 of the other VR user in the virtual space 11. The other VR user's VR avatar 25 can be operated by the other VR user.

VR側オブジェクト制御部920は、例えば、複合現実空間21中のMRユーザ6の位置に対応する仮想空間11中の位置に当該MRユーザ6のMRアバター26を配置する。すなわち、VR側オブジェクト制御部920は、現実の会議室21におけるMRユーザ6A,6B,6Cのそれぞれが存在する位置と、仮想の会議室におけるMRアバター26A,26B,26Cのそれぞれが存在する位置とが同じ位置となるように、MRアバター26A,26B,26Cを配置する。 The VR-side object control unit 920 places the MR avatar 26 of the MR user 6 at a position in the virtual space 11 that corresponds to the position of the MR user 6 in the mixed reality space 21, for example. That is, the VR-side object control unit 920 determines the positions of the MR users 6A, 6B, and 6C in the real conference room 21, and the positions of the MR avatars 26A, 26B, and 26C in the virtual conference room. MR avatars 26A, 26B, and 26C are arranged so that they are at the same position.

なお、MRアバター26の外見(換言すると、形態)は、MRユーザ6の外見を模したものでもよいが、模したものでなくてもよい。例えば、MRアバター26の外見は、所定の動物の外見を模したもの等であってもよい。VR側オブジェクト制御部920は、仮想オブジェクトを複合現実空間21中に配置する場合に、仮想オブジェクトの形態を示すオブジェクトデータを受信し、当該オブジェクトデータに基づいて仮想オブジェクトを配置する。ここで、VR側オブジェクト制御部920は、オブジェクトデータをサーバ600の制御部610から受信してもよく、MRシステム400のMR側オブジェクト制御部820から受信してもよい。具体的には、例えば、VR側オブジェクト制御部920は、MRアバター26を仮想空間11中に配置する際に、MRアバター26の形態を示すオブジェクトデータを制御部610またはMR側オブジェクト制御部820から受け取り、当該オブジェクトデータの示す形態のMRアバター26を仮想空間11に配置してもよい。なお、MRアバター26の外見は、MRユーザ6が予め設定しておくことが可能となっており、VR装置210でMRアバター26が表示される際に、MRユーザ6が設定した外見で表示がされるようになっていてもよい。また、MRアバター26の外見が、MRユーザ6の外見を模したものである場合、VR側オブジェクト制御部920は、検出装置460としてのカメラやカメラ413等の所定のカメラによって取得されるMRユーザ6の画像に基づいて生成される(例えば、制御部510が生成する)MRアバター26を、仮想空間11に配置するなどしてもよい。 Note that the appearance (in other words, form) of the MR avatar 26 may or may not be an imitation of the appearance of the MR user 6. For example, the appearance of the MR avatar 26 may be one that imitates the appearance of a predetermined animal. When placing a virtual object in the mixed reality space 21, the VR-side object control unit 920 receives object data indicating the form of the virtual object, and places the virtual object based on the object data. Here, the VR-side object control unit 920 may receive object data from the control unit 610 of the server 600 or from the MR-side object control unit 820 of the MR system 400. Specifically, for example, when placing the MR avatar 26 in the virtual space 11, the VR side object control unit 920 receives object data indicating the form of the MR avatar 26 from the control unit 610 or the MR side object control unit 820. After receiving the object data, the MR avatar 26 having the form indicated by the object data may be placed in the virtual space 11. The appearance of the MR avatar 26 can be set in advance by the MR user 6, and when the MR avatar 26 is displayed on the VR device 210, it is displayed with the appearance set by the MR user 6. It may be possible to do so. Further, when the appearance of the MR avatar 26 is one that imitates the appearance of the MR user 6, the VR side object control unit 920 detects the MR user's The MR avatar 26 generated based on the image No. 6 (for example, generated by the control unit 510) may be placed in the virtual space 11.

仮想カメラ制御部930は、仮想空間11に仮想カメラ14を配置する。また、仮想カメラ制御部930は、仮想空間11における仮想カメラ14の位置と、仮想カメラ14の傾き(向き)とを制御する。なお、本実施形態では、仮想カメラ制御部930は、仮想カメラ14を仮想空間11におけるVRアバター25の目の位置に配置する。換言すると、仮想カメラ制御部930は、仮想カメラ14の位置をVRアバター25の位置と連動させ、仮想空間11内においてVRアバター25が移動すると、仮想空間11内で仮想カメラ14を移動させる。なお、仮想カメラ14の位置は、VRアバター25の位置と連動するものでなくてもよい。例えば、仮想カメラ14を所定の位置に固定したまま、仮想空間11内でVRアバター25を移動させること等が可能となっていてもよい。 The virtual camera control unit 930 arranges the virtual camera 14 in the virtual space 11. Further, the virtual camera control unit 930 controls the position of the virtual camera 14 in the virtual space 11 and the inclination (orientation) of the virtual camera 14. Note that in this embodiment, the virtual camera control unit 930 arranges the virtual camera 14 at the eye position of the VR avatar 25 in the virtual space 11. In other words, the virtual camera control unit 930 links the position of the virtual camera 14 with the position of the VR avatar 25, and moves the virtual camera 14 within the virtual space 11 when the VR avatar 25 moves within the virtual space 11. Note that the position of the virtual camera 14 does not need to be linked to the position of the VR avatar 25. For example, it may be possible to move the VR avatar 25 within the virtual space 11 while keeping the virtual camera 14 fixed at a predetermined position.

表示制御部940は、VR装置210のディスプレイ211における画像表示を制御する。表示制御部940は、仮想カメラ14の位置と傾き(換言すると、VR装置210を装着したVRユーザの頭の傾き)に応じて、視界領域15を規定する。また、表示制御部940は、規定した視界領域15に基づいて、ディスプレイ211に表示される視界画像17を生成する。表示制御部940により生成された視界画像17は、VR装置210に出力される。 The display control unit 940 controls image display on the display 211 of the VR device 210. The display control unit 940 defines the viewing area 15 according to the position and tilt of the virtual camera 14 (in other words, the tilt of the head of the VR user wearing the VR device 210). Further, the display control unit 940 generates the visual field image 17 displayed on the display 211 based on the defined visual field area 15. The view image 17 generated by the display control unit 940 is output to the VR device 210.

また、表示制御部940は、ディスプレイ270における画像表示を制御する。表示制御部940は、例えば、ディスプレイ211に表示されている画像と同様の画像をディスプレイ270に表示させる。 Further, the display control unit 940 controls image display on the display 270. For example, the display control unit 940 causes the display 270 to display an image similar to the image displayed on the display 211.

音制御部945は、VR装置210から、VRユーザのマイク215を用いた発話を検出すると、当該発話に対応する音データを取得する。また、音制御部945は、取得した音データを、ネットワーク2を介してコンピュータ500や他のVRユーザのコンピュータ300等に送信する。また、音制御部945は、ネットワーク2を介してコンピュータ500や他のユーザのコンピュータ300から音データを受信すると、当該音データに対応する音(発話)をスピーカ216から出力する。これにより、VRユーザは、例えば、MRユーザ6と通話によるコミュニケーションを行うことが可能となっている。なお、VR側入力受付部916は、マイク215が検出したVRユーザの発話に関する音データを、VRユーザからの入力として受け付けてもよい。 When the sound control unit 945 detects an utterance from the VR user using the microphone 215 from the VR device 210, it acquires sound data corresponding to the utterance. Further, the sound control unit 945 transmits the acquired sound data to the computer 500, the computer 300 of another VR user, etc. via the network 2. Furthermore, upon receiving sound data from the computer 500 or another user's computer 300 via the network 2, the sound control unit 945 outputs sound (speech) corresponding to the sound data from the speaker 216. This allows the VR user to communicate with the MR user 6 by telephone, for example. Note that the VR-side input reception unit 916 may accept sound data related to the VR user's utterances detected by the microphone 215 as input from the VR user.

通信制御部950は、ネットワーク2を介して、サーバ600、コンピュータ500、他のVRユーザのコンピュータ300その他の情報通信装置と通信し得る。通信制御部950は、例えば、サーバ600、コンピュータ500、または他のVRユーザのコンピュータ300に、サーバ600、コンピュータ500、または他のVRユーザのコンピュータ300で使用される情報を送信する。また、通信制御部850は、例えば、サーバ600、コンピュータ500、または他のVRユーザのコンピュータ300から、コンピュータ300で使用される情報を受信する。 The communication control unit 950 can communicate with the server 600, the computer 500, the computer 300 of another VR user, and other information communication devices via the network 2. The communication control unit 950 transmits information used by the server 600, the computer 500, or the other VR user's computer 300 to the server 600, the computer 500, or the other VR user's computer 300, for example. Further, the communication control unit 850 receives information used by the computer 300, for example, from the server 600, the computer 500, or another VR user's computer 300.

(複合現実空間と仮想空間との融合)
本実施形態では、MR側入力受付部816が取得したMRユーザ6からの入力に基づいて、MR装置410が表示する仮想オブジェクトと、VR装置210が表示する仮想オブジェクトとが制御されるようになっている。
(Fusion of mixed reality space and virtual space)
In this embodiment, the virtual object displayed by the MR device 410 and the virtual object displayed by the VR device 210 are controlled based on the input from the MR user 6 acquired by the MR side input reception unit 816. ing.

具体的には、MR側オブジェクト制御部820は、MR側入力受付部816が受け付けたMRユーザ6からの入力に基づいて、複合現実空間21中の仮想オブジェクト、具体的には仮想模型30に所定の変化を与える。ここで、所定の変化とは、仮想オブジェクトを移動させたり、仮想オブジェクトの傾きや向いている方向等を変化させたり、仮想オブジェクトのパーツ同士の相対的な位置関係を変化させたりするなど、複合現実空間21中の仮想オブジェクトを動かすものであってもよい。また、所定の変化とは、仮想オブジェクトの色を変化させたり、仮想オブジェクトが表示する情報等を変化させたり、仮想オブジェクトの形態を変化させたりするものであってもよい。 Specifically, the MR side object control unit 820 controls the virtual object in the mixed reality space 21, specifically, the virtual model 30, based on the input from the MR user 6 received by the MR side input reception unit 816. give a change of Here, predetermined changes include complex changes such as moving the virtual object, changing the inclination or direction of the virtual object, and changing the relative positional relationship between the parts of the virtual object. It may also be something that moves a virtual object in the real space 21. Furthermore, the predetermined change may include changing the color of the virtual object, changing information displayed by the virtual object, or changing the form of the virtual object.

より具体的には、MR側オブジェクト制御部820は、例えば、MR側入力受付部816が受け付けた、MRユーザ6の動きに関する情報に基づいて、複合現実空間21中の仮想模型30を動かす。具体的には、例えば、検出手段(例えば、検出装置460またはカメラ413等)によって、MRユーザ6が仮想模型30を持って運ぶジェスチャーが検出され、検出手段が当該ジェスチャーに関する出力をすると、MR側入力受付部816は、当該出力をMRユーザ6からの入力として受け付ける。また、MR側オブジェクト制御部820は、MR側入力受付部816が受け付けた当該入力に基づいて、当該ジェスチャーによるMRユーザ6からの指示に従い、仮想模型30を複合現実空間21中で移動させる。なお、仮想オブジェクトとしての仮想模型30に所定の変化を与えるMRユーザ6のジェスチャーは、複合現実空間21中で仮想模型30に触れるものでなくてもよい。例えば、仮想模型30に向けて手をかざし、手を横に振るジェスチャーによって仮想オブジェクトを回転させること等が可能となっていてもよい。 More specifically, the MR-side object control unit 820 moves the virtual model 30 in the mixed reality space 21 based on, for example, information regarding the movement of the MR user 6 received by the MR-side input reception unit 816. Specifically, for example, when a gesture of the MR user 6 carrying the virtual model 30 is detected by the detection means (for example, the detection device 460 or the camera 413, etc.), and the detection means outputs an output related to the gesture, the MR side The input receiving unit 816 receives the output as an input from the MR user 6. Furthermore, the MR-side object control unit 820 moves the virtual model 30 in the mixed reality space 21 based on the input received by the MR-side input reception unit 816 and in accordance with the instruction from the MR user 6 using the gesture. Note that the gesture of the MR user 6 that causes a predetermined change to the virtual model 30 as a virtual object does not have to be a gesture that touches the virtual model 30 in the mixed reality space 21 . For example, it may be possible to rotate the virtual object by holding up a hand toward the virtual model 30 and waving the hand sideways.

また、MR側オブジェクト制御部820は、例えば、MR側入力受付部816が受け付けた、コントローラ480に対するMRユーザ6の操作に関する情報(換言すると、MRユーザ6の動きに関する情報)に基づいて、仮想オブジェクトに所定の変化を与えるなどしてもよい。また、MR側オブジェクト制御部820は、例えば、MR側入力受付部816が受け付けた、MRユーザ6の発話に関する音データに基づいて、仮想オブジェクトに所定の変化を与えるなどしてもよい。 Further, the MR-side object control unit 820 controls the virtual object based on the information regarding the operation of the MR user 6 on the controller 480 (in other words, the information regarding the movement of the MR user 6) received by the MR-side input reception unit 816, for example. It is also possible to give a predetermined change to. Further, the MR-side object control unit 820 may, for example, give a predetermined change to the virtual object based on the sound data regarding the utterance of the MR user 6, which is received by the MR-side input reception unit 816.

また、VR側オブジェクト制御部920は、MR側入力受付部816が受け付けたMRユーザ6からの入力に基づいて、仮想空間11中の仮想オブジェクトに所定の変化を与える。 Further, the VR-side object control unit 920 applies a predetermined change to the virtual object in the virtual space 11 based on the input from the MR user 6 that the MR-side input reception unit 816 receives.

具体的には、VR側オブジェクト制御部920は、例えば、MR側入力受付部816が受け付けたMRユーザ6からの入力に基づいて複合現実空間21中の仮想模型30に与えられる変化と同様の変化を、仮想空間11中の仮想模型30に与える。すなわち、例えば、前述のように、MRユーザ6の仮想模型30を持って運ぶジェスチャーによって、複合現実空間21中の仮想模型30が移動すると、VR側オブジェクト制御部920は、仮想空間11中の仮想模型30を、同じように移動させる。 Specifically, the VR-side object control unit 920 controls, for example, changes similar to the changes given to the virtual model 30 in the mixed reality space 21 based on the input from the MR user 6 received by the MR-side input reception unit 816. is given to the virtual model 30 in the virtual space 11. That is, for example, as described above, when the virtual model 30 in the mixed reality space 21 moves due to the gesture of the MR user 6 carrying the virtual model 30, the VR side object control unit 920 moves the virtual model 30 in the virtual space 11. The model 30 is moved in the same manner.

なお、複合現実空間21中の仮想模型30に与えられる変化と同様の変化を仮想空間中の仮想模型30に与える方法については、特に限定されるものではないが、例えば以下のようにしてもよい。すなわち、例えば、MR側オブジェクト制御部820は、MRユーザ6からの入力に基づいて複合現実空間21中の仮想模型30(換言すると、仮想オブジェクト)を動かすと(換言すると、所定契機で)、VR側オブジェクト制御部920に対して、動かした後の仮想模型30の位置や傾きを示す情報(換言すると、仮想模型30の状態に関する情報)を送ってもよい。そして、VR側オブジェクト制御部920は、仮想空間11中の当該情報によって示される位置に仮想模型30を配置したり、当該情報によって示される傾きで仮想模型30を配置したりしてもよい。また、例えば、通信制御部850が、MRユーザ6からの入力に基づく情報(例えば、制御部510が当該入力に基づいて算出(換言すると、取得)する仮想模型30の移動量や移動軌跡や傾き等に関する情報)を通信制御部950に対して送り、VR側オブジェクト制御部920は、当該情報に基づいて、仮想模型30等の仮想オブジェクトを動かす等してもよい。すなわち、本実施形態では、VR側オブジェクト制御部920は、MR側入力受付部816が受け付けたMRユーザ6からの入力に基づいて、仮想空間11中の仮想オブジェクトに所定の変化を与えるが、「MRユーザ6からの入力に基づいて」とは、VR側オブジェクト制御部920自体が当該入力を受け取って仮想オブジェクトを制御するものに限られず、仮想空間11中の仮想オブジェクトが結果として当該入力に応じて所定の変化をするものであればよい。 Note that the method of applying a change similar to the change applied to the virtual model 30 in the mixed reality space 21 to the virtual model 30 in the virtual space is not particularly limited, but may be, for example, as follows. . That is, for example, when the MR side object control unit 820 moves the virtual model 30 (in other words, the virtual object) in the mixed reality space 21 based on the input from the MR user 6 (in other words, at a predetermined timing), the VR Information indicating the position and inclination of the virtual model 30 after movement (in other words, information regarding the state of the virtual model 30) may be sent to the side object control unit 920. Then, the VR-side object control unit 920 may arrange the virtual model 30 at a position indicated by the information in the virtual space 11, or may arrange the virtual model 30 at an inclination indicated by the information. For example, the communication control unit 850 may also transmit information based on input from the MR user 6 (for example, the amount of movement, movement trajectory, and inclination of the virtual model 30 calculated (in other words, acquired) by the control unit 510 based on the input). etc.) to the communication control unit 950, and the VR-side object control unit 920 may move a virtual object such as the virtual model 30 based on the information. That is, in the present embodiment, the VR side object control unit 920 gives a predetermined change to the virtual object in the virtual space 11 based on the input from the MR user 6 accepted by the MR side input reception unit 816. "Based on the input from the MR user 6" does not mean that the VR side object control unit 920 itself receives the input and controls the virtual object, but the virtual object in the virtual space 11 responds to the input as a result. Any material that makes a predetermined change may be used.

また、VR側オブジェクト制御部920は、例えば、MR側入力受付部816が受け付けたMRユーザ6からの入力に基づいて、仮想空間11中のMRアバター26を動かす。具体的には、VR側オブジェクト制御部920は、例えば、MR側入力受付部816が受け付けた、MRユーザ6の動きに関する情報に基づいて、MRアバター26を動かす。例えば、VR側オブジェクト制御部920は、MR側入力受付部816が、MRユーザ6からの入力として受け付ける、複合現実空間21中のMRユーザ6の位置を示す位置情報に基づいて、MRアバター26を動かす。すなわち、VR側オブジェクト制御部920は、当該位置情報に基づいて、複合現実空間21中のMRユーザ6の位置に対応する仮想空間11中の位置にMRアバター26を配置し、MRユーザ6が複合現実空間21中で移動すると、移動後の位置に対応する仮想空間11中の位置にMRアバター26を配置する。 Further, the VR-side object control unit 920 moves the MR avatar 26 in the virtual space 11 based on the input from the MR user 6 received by the MR-side input reception unit 816, for example. Specifically, the VR-side object control unit 920 moves the MR avatar 26 based on, for example, information regarding the movement of the MR user 6 received by the MR-side input reception unit 816. For example, the VR-side object control unit 920 controls the MR avatar 26 based on position information indicating the position of the MR user 6 in the mixed reality space 21, which the MR-side input reception unit 816 receives as input from the MR user 6. move. That is, the VR-side object control unit 920 places the MR avatar 26 at a position in the virtual space 11 that corresponds to the position of the MR user 6 in the mixed reality space 21 based on the position information, and the MR user 6 When moving in the real space 21, the MR avatar 26 is placed at a position in the virtual space 11 corresponding to the position after movement.

また、VR側オブジェクト制御部920は、例えば、MR側入力受付部816が、MRユーザ6からの入力として受け付ける、MRユーザ6の体の各部位の動き(例えば、手の動きや、頭の動きや、目の動きや、表情の変化等)に関する情報や、MRユーザ6の傾きや向いている方向に関する情報に基づいて、MRアバター26を動かす。すなわち、VR側オブジェクト制御部920は、これらの各情報に基づいて、MRユーザ6の体の各部位の動き(換言すると、姿勢)や、MRユーザ6の傾きや向いている方向を、仮想空間11中のMRアバター26に反映させる。すなわち、本実施形態では、VR側オブジェクト制御部920は、仮想空間11中のMRアバター26の動きが、MRユーザ6の動きを検出する検出手段が検出するMRユーザ6の動きを模したものとなるように、MRアバター26の動きを制御する。換言すると、VR側オブジェクト制御部920は、少なくとも体の一部(例えば、手、足、頭、目、口等)について、MRアバター26の動きが、MRユーザ6の動きに連動したものとなるように、MRアバター26の動きを制御する。 Further, the VR side object control unit 920 also controls the movement of each part of the body of the MR user 6 (for example, hand movement, head movement) that the MR side input reception unit 816 receives as input from the MR user 6. The MR avatar 26 is moved based on information regarding the MR user 6's inclination and the direction in which the MR user 6 is facing. That is, the VR-side object control unit 920 controls the movement of each part of the body of the MR user 6 (in other words, the posture), the inclination and direction of the MR user 6 in the virtual space, based on these pieces of information. Reflect it on MR avatar 26 in 11. That is, in the present embodiment, the VR-side object control unit 920 determines that the movement of the MR avatar 26 in the virtual space 11 imitates the movement of the MR user 6 detected by the detection means that detects the movement of the MR user 6. The movement of the MR avatar 26 is controlled so that the movement of the MR avatar 26 is controlled. In other words, the VR-side object control unit 920 causes the movement of the MR avatar 26 to be linked to the movement of the MR user 6 for at least part of the body (for example, hands, feet, head, eyes, mouth, etc.). The movement of the MR avatar 26 is controlled as follows.

なお、MRアバター26の動きの少なくとも一部が、コントローラ480に対するMRユーザ6の操作(例えば、アナログスティックやボタン等に対する操作)により実現されてもよい。すなわち、例えば、VR側オブジェクト制御部920は、MRユーザ6からの入力としての、コントローラ480に対するMRユーザ6の操作を示す情報に基づいて、MRアバター26の体の一部を動かす等してもよい。 Note that at least part of the movement of the MR avatar 26 may be realized by the MR user 6's operation on the controller 480 (for example, operation on an analog stick, button, etc.). That is, for example, the VR side object control unit 920 may move a part of the body of the MR avatar 26 based on information indicating the operation of the MR user 6 on the controller 480 as an input from the MR user 6. good.

なお、仮想空間11中のMRアバター26は、仮想空間11中における位置あるいは動きの少なくとも一方が、複合現実空間21中のMRユーザ6の位置あるいは動きに連動したものでなくてもよい。すなわち、例えば、複合現実空間21中においてMRユーザ6が移動しても、仮想空間11中のMRアバター26がこれに応じた移動をしないものであってもよい。また、例えば、複合現実空間21中においてMRユーザ6が手を動かしたりしても、仮想空間11中のMRアバター26がこれと同じ動きをしないものであってもよい。 Note that at least one of the position or movement of the MR avatar 26 in the virtual space 11 may not be linked to the position or movement of the MR user 6 in the mixed reality space 21. That is, for example, even if the MR user 6 moves in the mixed reality space 21, the MR avatar 26 in the virtual space 11 may not move accordingly. Further, for example, even if the MR user 6 moves his hand in the mixed reality space 21, the MR avatar 26 in the virtual space 11 may not make the same movement.

また、本実施形態では、VR側入力受付部916が取得したVRユーザからの入力に基づいて、VR装置210が表示する仮想オブジェクトと、MR装置410が表示する仮想オブジェクトとが制御されるようになっている。 Furthermore, in this embodiment, the virtual object displayed by the VR device 210 and the virtual object displayed by the MR device 410 are controlled based on the input from the VR user acquired by the VR side input reception unit 916. It has become.

具体的には、VR側オブジェクト制御部920は、VR側入力受付部916が受け付けたVRユーザからの入力に基づいて、仮想空間11中の仮想オブジェクト、具体的には仮想模型30に所定の変化を与える。 Specifically, the VR-side object control unit 920 causes the virtual object in the virtual space 11, specifically, the virtual model 30, to undergo a predetermined change based on the input from the VR user that the VR-side input reception unit 916 has received. give.

より具体的には、VR側オブジェクト制御部920は、例えば、VR側入力受付部916が受け付けた、コントローラ280に対するVRユーザの操作を示す情報(換言すると、VRユーザの動きに関する情報)に基づいて、仮想空間11中の仮想模型30に所定の変化を与える。具体的には、例えば、VR側オブジェクト制御部920は、コントローラ280に対する操作によるVRユーザからの指示に従い、仮想模型30を仮想空間11中で移動させる。 More specifically, the VR-side object control unit 920, for example, based on information indicating the VR user's operation on the controller 280 (in other words, information regarding the VR user's movements) received by the VR-side input receiving unit 916. , gives a predetermined change to the virtual model 30 in the virtual space 11. Specifically, for example, the VR-side object control unit 920 moves the virtual model 30 in the virtual space 11 in accordance with an instruction from the VR user by operating the controller 280.

また、VR側オブジェクト制御部920は、例えば、検出手段によって検出されるVRユーザのジェスチャー等に基づいて、仮想オブジェクトに所定の変化を与えるなどしてもよい。また、VR側オブジェクト制御部920は、例えば、VR側入力受付部916が受け付けた、VRユーザの発話に関する音データに基づいて、仮想オブジェクトに所定の変化を与えるなどしてもよい。 Further, the VR-side object control unit 920 may, for example, give a predetermined change to the virtual object based on the gesture of the VR user detected by the detection means. Further, the VR-side object control unit 920 may, for example, give a predetermined change to the virtual object based on the sound data related to the VR user's utterances, which is received by the VR-side input reception unit 916.

また、MR側オブジェクト制御部820は、VR側入力受付部916が受け付けたVRユーザからの入力に基づいて、複合現実空間21中の仮想オブジェクトに所定の変化を与える。 Further, the MR side object control unit 820 applies a predetermined change to the virtual object in the mixed reality space 21 based on the input from the VR user that the VR side input reception unit 916 has received.

具体的には、MR側オブジェクト制御部820は、例えば、VR側入力受付部916が受け付けたVRユーザからの入力に基づいて仮想空間11中の仮想模型30に与えられる変化と同様の変化を、複合現実空間21中の仮想模型30に与える。すなわち、例えば、前述のように、VRユーザのコントローラ280に対する操作によって、仮想空間11中の仮想模型30が移動すると、MR側オブジェクト制御部820は、複合現実空間21中の仮想模型30を、同じように移動させる。 Specifically, the MR side object control unit 820, for example, causes a change similar to the change given to the virtual model 30 in the virtual space 11 based on the input from the VR user accepted by the VR side input reception unit 916. It is given to the virtual model 30 in the mixed reality space 21. That is, for example, as described above, when the virtual model 30 in the virtual space 11 is moved by the VR user's operation on the controller 280, the MR side object control unit 820 moves the virtual model 30 in the mixed reality space 21 to the same position. Move it like this.

なお、仮想空間11中の仮想模型30に与えられる変化と同様の変化を複合現実空間21中の仮想模型30に与える方法については、特に限定されるものではないが、例えば以下のようにしてもよい。すなわち、例えば、VR側オブジェクト制御部920は、VRユーザからの入力に基づいて仮想空間11中の仮想模型30(換言すると、仮想オブジェクト)を動かすと(換言すると、所定契機で)、MR側オブジェクト制御部820に対して、動かした後の仮想模型30の位置や傾きを示す情報(換言すると、仮想模型30の状態に関する情報)を送ってもよい。そして、MR側オブジェクト制御部820は、複合現実空間21中の当該情報によって示される位置に仮想模型30を配置したり、当該情報によって示される傾きで仮想模型30を配置したりしてもよい。また、例えば、通信制御部950が、VRユーザからの入力に基づく情報(例えば、制御部310が当該入力に基づいて算出(換言すると、取得)する仮想模型30の移動量や移動軌跡や傾き等に関する情報)を通信制御部850に対して送り、MR側オブジェクト制御部820は、当該情報に基づいて、仮想模型30等の仮想オブジェクトを動かしたりしてもよい。すなわち、本実施形態では、MR側オブジェクト制御部820は、VR側入力受付部916が受け付けたVRユーザからの入力に基づいて、複合現実空間21中の仮想オブジェクトに所定の変化を与えるが、「VRユーザからの入力に基づいて」とは、MR側オブジェクト制御部820自体が当該入力を受け取って仮想オブジェクトを制御するものに限られず、複合現実空間21中の仮想オブジェクトが結果として当該入力に応じて所定の変化をするものであればよい。 Note that there is no particular limitation on the method of applying the same change to the virtual model 30 in the virtual space 11 to the virtual model 30 in the mixed reality space 21, but for example, the following method may be used. good. That is, for example, when the VR side object control unit 920 moves the virtual model 30 (in other words, a virtual object) in the virtual space 11 based on an input from a VR user (in other words, at a predetermined timing), the MR side object Information indicating the position and inclination of the virtual model 30 after movement (in other words, information regarding the state of the virtual model 30) may be sent to the control unit 820. Then, the MR side object control unit 820 may arrange the virtual model 30 at a position indicated by the information in the mixed reality space 21, or may arrange the virtual model 30 at an inclination indicated by the information. For example, the communication control unit 950 may also transmit information based on input from the VR user (for example, the amount of movement, movement trajectory, inclination, etc. of the virtual model 30 calculated (in other words, acquired) by the control unit 310 based on the input). The MR-side object control unit 820 may move a virtual object such as the virtual model 30 based on the information. That is, in the present embodiment, the MR side object control unit 820 gives a predetermined change to the virtual object in the mixed reality space 21 based on the input from the VR user accepted by the VR side input reception unit 916. "Based on the input from the VR user" does not mean that the MR side object control unit 820 itself receives the input and controls the virtual object, but the virtual object in the mixed reality space 21 responds to the input as a result. Any material that makes a predetermined change may be used.

また、VR側オブジェクト制御部920は、VR側入力受付部916が受け付けたVRユーザからの入力に基づいて、仮想空間11中のVRアバター25に所定の変化を与える。具体的には、VR側オブジェクト制御部920は、例えば、VR側入力受付部916が受け付けた、コントローラ280に対するVRユーザの操作を示す情報(換言すると、VRユーザの動きに関する情報)に基づいて、仮想空間11中のVRアバター25に所定の変化を与える。具体的には、例えば、VR側オブジェクト制御部920は、コントローラ280に対する操作によるVRユーザからの指示に従い、VRアバター25を仮想空間11中で移動させる。 Further, the VR-side object control unit 920 gives a predetermined change to the VR avatar 25 in the virtual space 11 based on the input from the VR user that the VR-side input reception unit 916 has received. Specifically, the VR-side object control unit 920, for example, based on information indicating the VR user's operation on the controller 280 (in other words, information regarding the VR user's movement), received by the VR-side input receiving unit 916, A predetermined change is given to the VR avatar 25 in the virtual space 11. Specifically, for example, the VR-side object control unit 920 moves the VR avatar 25 in the virtual space 11 in accordance with an instruction from the VR user by operating the controller 280.

また、VR側オブジェクト制御部920は、例えば、VR側入力受付部916が、VRユーザからの入力として受け付ける、VRユーザの体の各部位の動き(例えば、手の動きや、頭の動きや、目の動きや、表情の変化等)に関する情報や、VRユーザの傾きや向いている方向に関する情報に基づいて、VRアバター25を動かす。すなわち、VR側オブジェクト制御部920は、これらの各情報に基づいて、VRユーザの体の各部位の動き(換言すると、姿勢)や、VRユーザの傾きや向いている方向を、仮想空間11中のVRアバター25に反映させる。すなわち、本実施形態では、VR側オブジェクト制御部920は、仮想空間11中のVRアバター25の動きが、VRユーザの動きを検出する検出手段が検出するVRユーザの動きを模したものとなるように、VRアバター25の動きを制御する。換言すると、VR側オブジェクト制御部920は、少なくとも体の一部(例えば、手、足、頭、目、口等)について、VRアバター25の動きが、VRユーザの動きに連動したものとなるように、VRアバター25の動きを制御する。 In addition, the VR-side object control unit 920 also controls the movement of each part of the VR user's body (for example, hand movement, head movement, The VR avatar 25 is moved based on information regarding eye movements, changes in facial expressions, etc., and information regarding the tilt and direction of the VR user. That is, the VR-side object control unit 920 controls the movement of each part of the VR user's body (in other words, the posture), the inclination of the VR user, and the direction in which the VR user is facing in the virtual space 11 based on each of these pieces of information. reflected on the VR avatar 25. That is, in the present embodiment, the VR-side object control unit 920 makes the movement of the VR avatar 25 in the virtual space 11 imitate the movement of the VR user detected by the detection means that detects the movement of the VR user. Then, the movement of the VR avatar 25 is controlled. In other words, the VR-side object control unit 920 controls the movement of the VR avatar 25 to be linked to the movement of the VR user with respect to at least a part of the body (for example, hands, feet, head, eyes, mouth, etc.). Then, the movement of the VR avatar 25 is controlled.

また、MR側オブジェクト制御部820は、例えば、VR側入力受付部916が受け付けたVRユーザからの入力に基づいて仮想空間11中のVRアバター25に与えられる変化と同様の変化を、複合現実空間21中のVRアバター25に与える。すなわち、例えば、前述のように、VRユーザのコントローラ280に対する操作によって、仮想空間11中のVRアバター25が移動すると、MR側オブジェクト制御部820は、複合現実空間21中のVRアバター25を、同じように移動させる。なお、仮想空間11中のVRアバター25に与えられる変化と同様の変化を複合現実空間21中のVRアバター25に与える方法については、特に限定されるものではないが、例えば前述の仮想模型30の場合と同様にすることができる。 Further, the MR-side object control unit 820 may, for example, make changes similar to changes given to the VR avatar 25 in the virtual space 11 based on the input from the VR user received by the VR-side input reception unit 916 in the mixed reality space. Give to VR avatar 25 out of 21. That is, for example, as described above, when the VR avatar 25 in the virtual space 11 moves due to the VR user's operation on the controller 280, the MR side object control unit 820 moves the VR avatar 25 in the mixed reality space 21 to the same position. Move it like this. Note that there is no particular limitation on the method of applying the same change to the VR avatar 25 in the virtual space 11 to the VR avatar 25 in the mixed reality space 21, but for example, the above-mentioned virtual model 30 may be used. You can do it as well.

なお、VRアバター25の仮想空間11中における位置および複合現実空間21中における位置が、現実空間におけるVRユーザの移動に伴い移動してもよい。すなわち、例えば、VR側オブジェクト制御部920は、VRユーザからの入力としての、現実空間におけるVRユーザの位置を示す位置情報に基づいて、VRアバター25を移動させてもよい。 Note that the position of the VR avatar 25 in the virtual space 11 and the position in the mixed reality space 21 may move as the VR user moves in the real space. That is, for example, the VR-side object control unit 920 may move the VR avatar 25 based on position information indicating the position of the VR user in real space, which is input from the VR user.

また、仮想空間11中のVRアバター25および複合現実空間21中のVRアバター25の一部の動きがコントローラ280に対する操作によって実現されてもよい。すなわち、例えば、VR側オブジェクト制御部920およびMR側オブジェクト制御部820は、VRユーザからの入力としての、コントローラ280に対するVRユーザの操作を示す情報に基づいて、VRアバター25の体の一部を動かす等してもよい。 Further, movement of a part of the VR avatar 25 in the virtual space 11 and the VR avatar 25 in the mixed reality space 21 may be realized by operating the controller 280. That is, for example, the VR side object control unit 920 and the MR side object control unit 820 control a part of the body of the VR avatar 25 based on information indicating the VR user's operation on the controller 280, which is input from the VR user. You may also move it.

本実施形態では、所定の現実空間としての会議室21に実際に存在する現実オブジェクトに対する行動の結果についても、VRユーザとMRユーザ6との間で共有することが可能となっている。この点について、以下では、現実オブジェクトとしての所定の記入が可能なオブジェクト(例えば、黒板やホワイトボード等)についての制御を例に説明する。図8に示されるように、複合現実空間21には、現実オブジェクトとしての黒板35が配置されており、仮想空間11には、黒板35に対応する位置に、黒板35に対応する仮想オブジェクトとしての仮想黒板36が配置されているものとする。 In this embodiment, the results of actions taken on real objects actually existing in the conference room 21 as a predetermined real space can also be shared between the VR user and the MR user 6. This point will be explained below by taking as an example the control of an object (for example, a blackboard, a whiteboard, etc.) on which a predetermined entry can be made as a real object. As shown in FIG. 8, a blackboard 35 as a real object is arranged in the mixed reality space 21, and a virtual object corresponding to the blackboard 35 is placed in the virtual space 11 at a position corresponding to the blackboard 35. It is assumed that a virtual blackboard 36 is placed.

本実施形態では、複合現実空間21においてMRユーザ6が現実オブジェクトとしての黒板35に対して行った行動(換言すると、行動の結果)が、複合現実空間21の黒板35に反映されるようになっている。また、本実施形態では、当該行動が、仮想空間11の仮想黒板36に反映されるようになっている。 In this embodiment, the action (in other words, the result of the action) performed by the MR user 6 on the blackboard 35 as a real object in the mixed reality space 21 is reflected on the blackboard 35 in the mixed reality space 21. ing. Further, in this embodiment, the action is reflected on the virtual blackboard 36 in the virtual space 11.

複合現実空間21においては、MRユーザ6は、黒板35に対して所定の記入を行うことが可能となっている。また、MRユーザ6による黒板35に対する記入動作は、当該記入動作を検出する検出手段(以下、「MR側記入検出手段」という。)によって検出され、MR側記入検出手段からの出力(換言すると、記入動作に関する情報)がMRユーザ6からの入力としてMR側入力受付部816に受け付けられるようになっている。MR側記入検出手段は、例えば、MRユーザ6の手の動きを検出可能な検出手段であってもよい。具体的には、MR側記入検出手段は、例えば、コントローラ480としてのペン型のコントローラ等であってもよい。また、MR側記入検出手段は、検出装置460としてのカメラや、カメラ413等であってもよい。また、MR側記入検出手段は、MRユーザ6が身につけるデバイス等であってもよい。また、MR側記入検出手段は、黒板35が備えるセンサ(例えば、タッチセンサや、黒板35の備える赤外光を発する装置からの赤外光の反射光を読み取るセンサ等)であってもよい。換言すると、黒板35は、コンピュータ500と通信可能となっており、黒板35の備えるセンサによって検出されたMRユーザ6の記入動作に関する情報が、MRユーザ6からの入力としてMR側入力受付部816に受け付けられるようになっていてもよい。 In the mixed reality space 21, the MR user 6 can make predetermined entries on the blackboard 35. Further, the writing operation by the MR user 6 on the blackboard 35 is detected by a detection means for detecting the writing operation (hereinafter referred to as "MR side writing detection means"), and the output from the MR side writing detection means (in other words, information regarding the entry operation) is received by the MR side input reception unit 816 as input from the MR user 6. The MR side entry detection means may be, for example, a detection means capable of detecting the hand movement of the MR user 6. Specifically, the MR side entry detection means may be, for example, a pen-shaped controller as the controller 480. Further, the MR side entry detection means may be a camera as the detection device 460, the camera 413, or the like. Furthermore, the MR side entry detection means may be a device worn by the MR user 6 or the like. Further, the MR side entry detection means may be a sensor provided on the blackboard 35 (for example, a touch sensor, a sensor that reads reflected light of infrared light from a device provided on the blackboard 35 that emits infrared light, etc.). In other words, the blackboard 35 is capable of communicating with the computer 500, and information regarding the writing operation of the MR user 6 detected by the sensor included in the blackboard 35 is sent to the MR side input receiving unit 816 as an input from the MR user 6. It may be accepted.

複合現実空間21の黒板35には、MRユーザ6の記入動作が反映される。換言すると、MRユーザ6が記入動作を行うと、黒板35は、図10(a)に示されるように、MRユーザ6の記入した記入内容(例えば、図10(a)における、月の絵、ハートの絵、および「Sample」の文字)を表示する状態に変化する。例えば、黒板35は、MRユーザ6の記入した記入内容を電子的に表示する(換言すると、反映する)電子黒板となっており、MRユーザ6が記入動作を行うと、記入内容を表示する状態に変化するようになっていてもよい。具体的には、例えば、黒板35の記入面自体がディスプレイとなっており、当該ディスプレイが記入内容を表示してもよい。また、黒板35が、記入面に画像を投影するプロジェクタを備え、当該プロジェクタが記入面に記入内容を映し出してもよい。換言すると、複合現実空間21へのユーザの行動の反映(換言すると、MRユーザ6の行動に起因するMR装置410を介して見られる複合現実空間21の変化)は、現実オブジェクト自体に何らかの変化(例えば、表示内容の変化)が起こることにより実現されてもよい。なお、記入内容を電子的に表示する場合に、黒板35のコンピュータが、黒板の備えるセンサの検出結果に基づいて当該表示を制御してもよく、コンピュータ500が、MR側記入検出手段の検出結果に基づいて当該表示を制御してもよい。すなわち、例えば、コンピュータ500の制御部510等が、MR側入力受付部816が受け付けたMRユーザ6からの入力に基づいて黒板35の表示を制御する制御手段(以下、「黒板表示制御手段」という。)として機能してもよい。具体的には、黒板表示制御手段は、MRユーザ6からの入力に基づいて、黒板35のディスプレイまたはプロジェクタが表示する画像が、記入内容を示す画像となるように制御してもよい。なお、複合現実空間21の黒板35へのMRユーザ6の記入動作の反映は、MRユーザ6がチョーク等の筆記具によって実際に黒板35に文字や絵を記入することにより行われてもよい。換言すると、筆記具によって実際に黒板35に文字や絵を記入する動作が、MRユーザ6の記入動作としてMR側記入検出手段によって検出されてもよい。 The writing actions of the MR user 6 are reflected on the blackboard 35 in the mixed reality space 21 . In other words, when the MR user 6 performs a writing operation, the blackboard 35 displays the contents written by the MR user 6 (for example, the picture of the moon in FIG. 10(a), The state changes to displaying a picture of a heart and the words "Sample". For example, the blackboard 35 is an electronic blackboard that electronically displays (in other words, reflects) the contents filled in by the MR user 6, and when the MR user 6 performs a writing operation, the contents are displayed. It may be changed to . Specifically, for example, the writing surface of the blackboard 35 itself serves as a display, and the display may display the written contents. Further, the blackboard 35 may include a projector that projects an image onto the writing surface, and the projector may project the written contents onto the writing surface. In other words, the reflection of the user's actions on the mixed reality space 21 (in other words, the changes in the mixed reality space 21 seen through the MR device 410 caused by the actions of the MR user 6) is caused by some change ( For example, this may be realized by a change in display content). In addition, when displaying the entry electronically, the computer of the blackboard 35 may control the display based on the detection result of the sensor provided on the blackboard, and the computer 500 may control the display based on the detection result of the MR side entry detection means. The display may be controlled based on. That is, for example, the control unit 510 or the like of the computer 500 may control the display of the blackboard 35 based on the input from the MR user 6 received by the MR side input receiving unit 816 (hereinafter referred to as "blackboard display control means"). ). Specifically, the blackboard display control means may control, based on input from the MR user 6, so that the image displayed by the display or projector of the blackboard 35 becomes an image showing the written content. Note that the writing operation of the MR user 6 may be reflected on the blackboard 35 in the mixed reality space 21 by the MR user 6 actually writing letters or pictures on the blackboard 35 using a writing instrument such as chalk. In other words, the action of actually writing characters or pictures on the blackboard 35 with a writing instrument may be detected by the MR side writing detection means as the writing action of the MR user 6.

また、例えば、MR側オブジェクト制御部820は、MRユーザ6の記入した記入内容を示す仮想オブジェクト(以下、「記入オブジェクト37」という。)を生成し、複合現実空間21の黒板35の位置に配置してもよい(図10(a)参照)。具体的には、MR側オブジェクト制御部820は、MR側入力受付部816が受け付けたMRユーザ6からの入力に基づいて、記入オブジェクト37を生成してもよい。そして、MR装置410を介して黒板35を見た場合に、黒板35が記入内容(換言すると、記入オブジェクト37)を表示する状態が視認されるようになっていてもよい。換言すると、複合現実空間21へのユーザの行動の反映(換言すると、MRユーザ6の行動に起因するMR装置410を介して見られる複合現実空間21の変化)は、現実オブジェクトに対して所定の仮想オブジェクトが付加されることにより実現されてもよい。 Further, for example, the MR-side object control unit 820 generates a virtual object (hereinafter referred to as "input object 37") indicating the entry content entered by the MR user 6, and places it at the position of the blackboard 35 in the mixed reality space 21. (See FIG. 10(a)). Specifically, the MR-side object control unit 820 may generate the entry object 37 based on the input from the MR user 6 that the MR-side input reception unit 816 receives. When viewing the blackboard 35 through the MR device 410, the state in which the blackboard 35 displays the entry contents (in other words, the entry object 37) may be visually recognized. In other words, the reflection of the user's actions on the mixed reality space 21 (in other words, the changes in the mixed reality space 21 seen via the MR device 410 caused by the actions of the MR user 6) is based on a predetermined change in the real object. It may be realized by adding a virtual object.

また、VR側オブジェクト制御部920は、MR側入力受付部816が受け付けたMRユーザ6からの入力に基づいて、現実オブジェクトに対応する仮想オブジェクトに所定の変化を与える。具体的には、VR側オブジェクト制御部920は、図10(b)に示されるように、MRユーザ6からの入力を仮想黒板36に反映させ、仮想黒板36がMRユーザ6の記入した記入内容を表示する状態となるように制御する。換言すると、VR側オブジェクト制御部920は、MRユーザ6の行動に基づく複合現実空間21中の現実オブジェクト(例えば、黒板35)に関する変化を、当該現実オブジェクトに対応する仮想空間11中の仮想オブジェクト(例えば、仮想黒板36)に反映させる。具体的には、例えば、MRユーザ6の記入動作に関する情報が、MR側入力受付部816に入力されると、VR側オブジェクト制御部920は、MRユーザ6の記入した記入内容を示す記入オブジェクト38を、仮想空間11の仮想黒板36の位置に配置することとしてもよい(図10(b)参照)。また、VR側オブジェクト制御部920は、例えば、仮想黒板36自体の形態を変化させることにより、仮想黒板36が記入内容を表示する状態となるように制御してもよい。また、仮想黒板36が、黒板35のディスプレイまたはプロジェクタ等が表示している画像を表示する仮想オブジェクトとなっており、VR側オブジェクト制御部920は、当該画像を仮想黒板36に表示させるようになっていてもよい。また、複合現実空間21の黒板35を撮影するカメラをMRシステム400が備え、仮想黒板36は、当該カメラにより撮影される画像を表示する仮想オブジェクトとなっており、VR側オブジェクト制御部920は、当該画像を仮想黒板36に表示させるようになっていてもよい。 Furthermore, the VR-side object control unit 920 applies a predetermined change to the virtual object corresponding to the real object based on the input from the MR user 6 that the MR-side input reception unit 816 has received. Specifically, as shown in FIG. 10(b), the VR side object control unit 920 causes the input from the MR user 6 to be reflected on the virtual blackboard 36, so that the virtual blackboard 36 reflects the input contents written by the MR user 6. control so that it is displayed. In other words, the VR-side object control unit 920 changes changes regarding the real object (for example, the blackboard 35) in the mixed reality space 21 based on the behavior of the MR user 6 into the virtual object (for example, the blackboard 35) in the virtual space 11 corresponding to the real object. For example, it is reflected on the virtual blackboard 36). Specifically, for example, when information regarding the entry operation of the MR user 6 is input to the MR side input receiving unit 816, the VR side object control unit 920 displays the entry object 38 indicating the entry content entered by the MR user 6. may be placed at the position of the virtual blackboard 36 in the virtual space 11 (see FIG. 10(b)). Further, the VR-side object control unit 920 may control the virtual blackboard 36 to be in a state in which written contents are displayed, for example, by changing the form of the virtual blackboard 36 itself. Further, the virtual blackboard 36 is a virtual object that displays an image displayed by the display of the blackboard 35 or a projector, and the VR-side object control unit 920 causes the virtual blackboard 36 to display the image. You can leave it there. Further, the MR system 400 includes a camera that photographs the blackboard 35 in the mixed reality space 21, the virtual blackboard 36 is a virtual object that displays an image photographed by the camera, and the VR-side object control unit 920 The image may be displayed on the virtual blackboard 36.

また、本実施形態では、仮想空間11においてVRユーザが仮想オブジェクトとしての仮想黒板36に対して行った行動(換言すると、行動の結果)が、仮想空間11の仮想黒板36に反映されるようになっている。また、本実施形態では、当該行動が、複合現実空間21の黒板35に反映されるようになっている。 Further, in the present embodiment, an action (in other words, a result of the action) performed by the VR user on the virtual blackboard 36 as a virtual object in the virtual space 11 is reflected on the virtual blackboard 36 in the virtual space 11. It has become. Furthermore, in this embodiment, the action is reflected on the blackboard 35 in the mixed reality space 21.

仮想空間11においては、VRユーザは、仮想黒板36に対して所定の記入を行うことが可能となっている。また、VRユーザによる仮想黒板36に対する記入動作は、当該記入動作を検出する検出手段(以下、「VR側記入検出手段」という。)によって検出され、VR側記入検出手段からの出力がVRユーザからの入力としてVR側入力受付部916に受け付けられるようになっている。VR側記入検出手段は、例えば、VRユーザの手の動きを検出可能な検出手段であってもよい。具体的には、VR側記入検出手段は、例えば、コントローラ280等であってもよい。また、VR側記入検出手段は、検出装置260としてのカメラ等であってもよい。また、VR側記入検出手段は、VRユーザが身につけるデバイス等であってもよい。 In the virtual space 11, the VR user can make predetermined entries on the virtual blackboard 36. Further, the writing operation on the virtual blackboard 36 by the VR user is detected by a detection means (hereinafter referred to as "VR side writing detection means") that detects the writing operation, and the output from the VR side writing detection means is detected by the VR user. The VR-side input receiving unit 916 receives the input as the input. The VR side entry detection means may be, for example, a detection means capable of detecting the movement of a VR user's hand. Specifically, the VR side entry detection means may be, for example, the controller 280 or the like. Further, the VR side entry detection means may be a camera or the like as the detection device 260. Furthermore, the VR side entry detection means may be a device worn by the VR user.

複合現実空間21の黒板35には、VRユーザの記入動作が反映される。換言すると、VRユーザが記入動作を行うと、黒板35は、VRユーザの記入した記入内容を表示する状態に変化する。さらに換言すると、黒板35には、VR側入力受付部916が受け付けたVRユーザからの入力が反映される。黒板35へのVRユーザからの入力の反映は、例えば、以下のように行ってもよい。すなわち、例えば、MR側オブジェクト制御部820は、VRユーザの記入した記入内容を示す記入オブジェクト37を、複合現実空間21の黒板35の位置に配置してもよい。また、前記黒板表示制御手段が、VRユーザからの入力に基づいて、黒板35のディスプレイまたはプロジェクタが表示する画像が、VRユーザの記入した記入内容を示す画像となるように制御してもよい。すなわち、MR側オブジェクト制御部820または黒板表示制御手段は、VR側入力受付部916が受け付けたVRユーザからの入力を、複合現実空間21中の現実オブジェクトに反映させる反映手段として機能し得る。 The VR user's writing actions are reflected on the blackboard 35 in the mixed reality space 21 . In other words, when the VR user performs a writing operation, the blackboard 35 changes to a state where the content written by the VR user is displayed. In other words, the input from the VR user accepted by the VR-side input reception unit 916 is reflected on the blackboard 35. For example, the input from the VR user may be reflected on the blackboard 35 as follows. That is, for example, the MR-side object control unit 820 may place the entry object 37 indicating the content entered by the VR user at the position of the blackboard 35 in the mixed reality space 21. Further, the blackboard display control means may control, based on input from the VR user, so that the image displayed by the display or projector of the blackboard 35 becomes an image showing the content written by the VR user. That is, the MR-side object control unit 820 or the blackboard display control unit can function as a reflection unit that reflects the input from the VR user received by the VR-side input reception unit 916 on the real object in the mixed reality space 21.

また、仮想空間11の仮想黒板36にも、VRユーザの記入動作が反映される。換言すると、VRユーザが記入動作を行うと、仮想黒板36は、VRユーザの記入した記入内容を表示する状態に変化する。さらに換言すると、仮想黒板36には、VR側入力受付部916が受け付けたVRユーザからの入力が反映される。具体的には、VR側オブジェクト制御部920は、VR側入力受付部916が受け付けたVRユーザからの入力に基づいて、仮想黒板36に所定の変化を与える。より具体的には、VR側オブジェクト制御部920は、VRユーザからの入力を仮想黒板36に反映させ、仮想黒板36がVRユーザの記入した記入内容を表示する状態となるように制御する。具体的には、例えば、VRユーザの記入動作に関する情報が、VR側入力受付部916に入力されると、VR側オブジェクト制御部920は、VRユーザの記入した記入内容を示す記入オブジェクト38を、仮想空間11の仮想黒板36の位置に配置することとしてもよい。また、VR側オブジェクト制御部920は、例えば、仮想黒板36自体の形態を変化させることにより、仮想黒板36が記入内容を表示する状態となるように制御してもよい。また、仮想黒板36が、黒板35のディスプレイまたはプロジェクタ等が表示している画像を表示する仮想オブジェクトとなっており、VR側オブジェクト制御部920は、当該画像を仮想黒板36に表示させるようになっていてもよい。また、複合現実空間21の黒板35を撮影するカメラをMRシステム400が備え、仮想黒板36は、当該カメラにより撮影される画像を表示する仮想オブジェクトとなっており、VR側オブジェクト制御部920は、当該画像を仮想黒板36に表示させるようになっていてもよい。換言すると、VR側入力受付部916が受け付けたVRユーザからの入力が、複合現実空間21中の現実オブジェクトに反映され、これにより、VRユーザからの入力に基づく仮想黒板36の変化が起こるようになっていてもよい。 Further, the VR user's writing operation is also reflected on the virtual blackboard 36 in the virtual space 11. In other words, when the VR user performs a writing operation, the virtual blackboard 36 changes to a state where the contents written by the VR user are displayed. In other words, the virtual blackboard 36 reflects the input from the VR user accepted by the VR-side input reception unit 916. Specifically, the VR-side object control unit 920 applies a predetermined change to the virtual blackboard 36 based on the input from the VR user that the VR-side input reception unit 916 receives. More specifically, the VR-side object control unit 920 controls the input from the VR user to be reflected on the virtual blackboard 36 so that the virtual blackboard 36 is in a state of displaying the content written by the VR user. Specifically, for example, when information regarding the entry operation of the VR user is input to the VR-side input reception unit 916, the VR-side object control unit 920 inputs the entry object 38 indicating the entry content entered by the VR user, It may be placed at the position of the virtual blackboard 36 in the virtual space 11. Further, the VR-side object control unit 920 may control the virtual blackboard 36 to be in a state in which written contents are displayed, for example, by changing the form of the virtual blackboard 36 itself. Further, the virtual blackboard 36 is a virtual object that displays an image displayed by the display of the blackboard 35 or a projector, and the VR-side object control unit 920 causes the virtual blackboard 36 to display the image. You can leave it there. Further, the MR system 400 includes a camera that photographs the blackboard 35 in the mixed reality space 21, the virtual blackboard 36 is a virtual object that displays an image photographed by the camera, and the VR-side object control unit 920 The image may be displayed on the virtual blackboard 36. In other words, the input from the VR user received by the VR side input reception unit 916 is reflected on the real object in the mixed reality space 21, so that the virtual blackboard 36 changes based on the input from the VR user. It may be.

以上のように、本実施形態では、MRユーザ6が現実オブジェクトに対して行った行動、および、VRユーザが当該現実オブジェクトに対応する仮想オブジェクトに対して行った行動が、複合現実空間21および仮想空間11に反映されるようになっている。このような、各行動の複合現実空間21または仮想空間11への反映は、以下のようなものであってもよい。 As described above, in this embodiment, the actions that the MR user 6 performs on a real object and the actions that the VR user performs on a virtual object corresponding to the real object are transferred to the mixed reality space 21 and the virtual object. It is now reflected in space 11. Such reflection of each action on the mixed reality space 21 or the virtual space 11 may be as follows.

すなわち、例えば、MRユーザ6が、複合現実空間21において、レーザポインタ等の所定のポインタで任意の位置を指し示すと、仮想空間11においても指し示された位置(以下、「指示位置」という。)がわかるようになっていてもよい。具体的には、例えば、複合現実空間21では、MRシステム400の検出装置460やカメラ413等が、指示位置を検出する指示位置検出手段として機能してもよい。そして、指示位置検出手段によって検出された指示位置に関する情報が、MRユーザ6からの入力としてMR側入力受付部816に受け付けられるようになっていてもよい。また、VR側オブジェクト制御部920は、複合現実空間21中の指示位置に対応する仮想空間11中の位置に、レーザポインタからの光を示す仮想オブジェクトを配置するなどしてもよい。換言すると、制御部310は、VR装置210における仮想空間11の表示において、複合現実空間21中の指示位置に対応する仮想空間11中の位置が、レーザポインタからの光を表す所定の色で光るように制御してもよい。 That is, for example, when the MR user 6 points to an arbitrary position in the mixed reality space 21 with a predetermined pointer such as a laser pointer, the pointed position (hereinafter referred to as "indicated position") also occurs in the virtual space 11. It may be possible to understand. Specifically, for example, in the mixed reality space 21, the detection device 460, camera 413, etc. of the MR system 400 may function as a pointed position detection means for detecting the pointed position. Information regarding the indicated position detected by the indicated position detection means may be received by the MR side input receiving unit 816 as an input from the MR user 6. Furthermore, the VR-side object control unit 920 may place a virtual object indicating light from the laser pointer at a position in the virtual space 11 that corresponds to the indicated position in the mixed reality space 21. In other words, in displaying the virtual space 11 in the VR device 210, the control unit 310 causes the position in the virtual space 11 corresponding to the indicated position in the mixed reality space 21 to shine in a predetermined color representing the light from the laser pointer. It may be controlled as follows.

また、例えば、VRユーザが、仮想空間11において、仮想的なレーザポインタ等の所定のポインタで任意の位置を指し示すと、複合現実空間21においても指示位置がわかるようになっていてもよい。具体的には、例えば、仮想的なレーザポインタを操作するためのコントローラ280に対するVRユーザの操作に関する情報(換言すると、VRユーザの動きに関する情報)がVR側入力受付部916に入力されると、VR側オブジェクト制御部920は、VRユーザの操作によって指示される位置(換言すると、仮想的なレーザポインタによって指示される位置)に、仮想的なレーザポインタからの光を示す仮想オブジェクトを配置するなどしてもよい。換言すると、制御部310は、VR装置210における仮想空間の表示において、仮想的なVRユーザの操作によって指示される仮想空間11中の位置が、仮想的なレーザポインタからの光を表す所定の色で光るように制御してもよい。また、制御部510等は、仮想空間11中の指示位置(具体的には、VRユーザによる指示位置)に対応する複合現実空間21中の位置が、仮想的なレーザポインタからの光を表す所定の色で光るように制御してもよい。具体的には、MR側オブジェクト制御部820は、仮想空間11中の指示位置に対応する複合現実空間21中の位置に、仮想的なレーザポインタからの光を示す仮想オブジェクトを配置するなどしてもよい。また、例えば、VRユーザによる指示位置が、仮想黒板36上の所定の位置である場合に、前記黒板表示制御手段が、VRユーザからの入力に基づいて、黒板35のディスプレイまたはプロジェクタが表示する画像が、仮想黒板36上の当該所定の位置に対応する位置が光る画像(すなわち、レーザポインタによって所定箇所が指し示されていることを示す画像)となるように制御してもよい。また、例えば、検出装置460やMR装置410等がレーザ光を放射する装置を備え、制御部510が、VR側入力受付部916が受け付けたVRユーザからの入力に応じて、当該装置を制御して仮想空間11中の指示位置に対応する複合現実空間21中の位置にレーザ光を当てるようにしてもよい。 Further, for example, when the VR user points to an arbitrary position in the virtual space 11 with a predetermined pointer such as a virtual laser pointer, the pointed position may also be known in the mixed reality space 21. Specifically, for example, when information regarding the operation of the VR user on the controller 280 for operating the virtual laser pointer (in other words, information regarding the movement of the VR user) is input to the VR side input reception unit 916, The VR-side object control unit 920 places a virtual object indicating light from a virtual laser pointer at a position indicated by a VR user's operation (in other words, a position indicated by a virtual laser pointer), etc. You may. In other words, in displaying the virtual space in the VR device 210, the control unit 310 causes the position in the virtual space 11 designated by the virtual VR user's operation to be set to a predetermined color representing the light from the virtual laser pointer. You can also control it so that it shines. In addition, the control unit 510 and the like are configured such that the position in the mixed reality space 21 corresponding to the designated position in the virtual space 11 (specifically, the designated position by the VR user) is a predetermined position representing the light from the virtual laser pointer. It may also be controlled so that it shines in this color. Specifically, the MR side object control unit 820 places a virtual object indicating light from a virtual laser pointer at a position in the mixed reality space 21 that corresponds to the indicated position in the virtual space 11. Good too. Further, for example, when the position indicated by the VR user is a predetermined position on the virtual blackboard 36, the blackboard display control means may control the image displayed by the display of the blackboard 35 or the projector based on the input from the VR user. However, the image may be controlled so that a position corresponding to the predetermined position on the virtual blackboard 36 lights up (that is, an image indicating that the predetermined location is pointed by the laser pointer). Further, for example, the detection device 460, the MR device 410, etc. are equipped with a device that emits laser light, and the control unit 510 controls the device in accordance with input from the VR user received by the VR side input reception unit 916. Alternatively, the laser beam may be applied to a position in the mixed reality space 21 that corresponds to the indicated position in the virtual space 11.

また、MRユーザ6またはVRユーザの行動の複合現実空間21および仮想空間11への反映は、以下のようなものであってもよい。すなわち、例えば、複合現実空間21には、現実オブジェクトとしての音の入力または出力が可能な装置(例えば、電子ピアノ)が配置されており、当該装置に関するMRユーザ6またはVRユーザの行動が、複合現実空間21および仮想空間11へ反映されるようになっていてもよい。以下では、複合現実空間21には、現実オブジェクトとしての電子ピアノが配置されており、仮想空間11には、当該電子ピアノに対応する位置に、当該電子ピアノに対応する仮想オブジェクトとしての仮想電子ピアノが配置されているものとする。 Further, the actions of the MR user 6 or the VR user may be reflected in the mixed reality space 21 and the virtual space 11 as follows. That is, for example, in the mixed reality space 21, a device (for example, an electronic piano) capable of inputting or outputting sound as a real object is arranged, and the actions of the MR user 6 or the VR user regarding the device are It may also be reflected in the real space 21 and the virtual space 11. In the following, an electronic piano as a real object is placed in the mixed reality space 21, and a virtual electronic piano as a virtual object corresponding to the electronic piano is placed in the virtual space 11 at a position corresponding to the electronic piano. It is assumed that .

電子ピアノは、例えば、コンピュータ500と通信可能となっていてもよい。そして、複合現実空間21において、MRユーザ6が電子ピアノを操作すると、当該操作に関する情報(例えば、当該操作に対応する音データ)が、コンピュータ500を介してコンピュータ300に送られるなどしてもよい。そして、音制御部945は、当該情報に基づいてスピーカ216から音を出力するなどしてもよい。これにより、例えば、MRユーザ6が電子ピアノの鍵(例えば、「ド」の音の鍵)を操作すると、スピーカ216から操作された鍵に対応する音(例えば、「ド」の音)が出力されるようになっていてもよい。換言すると、MR側入力受付部816は、MRユーザ6の操作を検出する検出手段としての電子ピアノ(換言すると、鍵に対する操作を検出するセンサ等)からの出力(例えば、操作に応じた音データ)をMRユーザ6からの入力として受け付け、制御部310(例えば、音制御部945)は、当該入力に基づいて、MRユーザ6の電子ピアノに対する操作に対応する音をスピーカ216に出力させるようになっていてもよい。また、音制御部945は、電子ピアノに対する操作に対応する音が、仮想空間11中の仮想電子ピアノから出力されているように聞こえるよう、音の発せられる方向を制御してもよい。 The electronic piano may be able to communicate with the computer 500, for example. When the MR user 6 operates the electronic piano in the mixed reality space 21, information regarding the operation (for example, sound data corresponding to the operation) may be sent to the computer 300 via the computer 500. . Then, the sound control unit 945 may output sound from the speaker 216 based on the information. With this, for example, when the MR user 6 operates a key of the electronic piano (for example, a key for the sound of "C"), the sound corresponding to the operated key (for example, the sound of "C") is output from the speaker 216. It may be possible to do so. In other words, the MR side input reception unit 816 receives the output (for example, sound data corresponding to the operation) from the electronic piano (in other words, a sensor or the like that detects the operation on the keys) serving as a detection means for detecting the operation of the MR user 6. ) as an input from the MR user 6, and the control unit 310 (for example, the sound control unit 945) causes the speaker 216 to output a sound corresponding to the operation of the MR user 6 on the electronic piano based on the input. It may be. Further, the sound control unit 945 may control the direction in which the sound is emitted so that the sound corresponding to the operation on the electronic piano sounds as if it is being output from the virtual electronic piano in the virtual space 11.

また、仮想空間11において、VRユーザが仮想電子ピアノを操作すると、当該操作に関する情報が、コンピュータ500に送られるなどしてもよい。そして、音制御部845は、当該情報に基づいてスピーカ416から音を出力するなどしてもよい。これにより、例えば、VRユーザが仮想電子ピアノの鍵(例えば、「ド」の音の鍵)を操作すると、スピーカ416から操作された鍵に対応する音(例えば、「ド」の音)が出力されるようになっていてもよい。換言すると、VR側入力受付部916は、仮想電子ピアノに対するVRユーザの操作を検出する検出手段(例えば、検出装置260またはコントローラ280)からの出力をVRユーザからの入力として受け付け、制御部510(例えば、音制御部845)は、当該入力に基づいて、VRユーザの仮想電子ピアノに対する操作に対応する音をスピーカ416に出力させるようになっていてもよい。なお、制御部510は、VRユーザの仮想電子ピアノに対する操作に対応する音を電子ピアノのスピーカに出力させるようになっていてもよい。 Further, when the VR user operates the virtual electronic piano in the virtual space 11, information regarding the operation may be sent to the computer 500. Then, the sound control unit 845 may output sound from the speaker 416 based on the information. With this, for example, when a VR user operates a key of the virtual electronic piano (for example, a key for the sound of "C"), the sound corresponding to the operated key (for example, the sound of "C") is output from the speaker 416. It may be possible to do so. In other words, the VR-side input reception unit 916 receives the output from the detection means (for example, the detection device 260 or the controller 280) that detects the VR user's operation on the virtual electronic piano as an input from the VR user, and the control unit 510 ( For example, the sound control unit 845) may be configured to cause the speaker 416 to output a sound corresponding to the VR user's operation on the virtual electronic piano based on the input. Note that the control unit 510 may be configured to cause the speaker of the electronic piano to output a sound corresponding to the VR user's operation on the virtual electronic piano.

なお、MRユーザ6が、電子ピアノを操作した際の、当該操作に対応する音の複合現実空間21における出力は、電子ピアノのスピーカが行ってもよく、スピーカ416が行ってもよい。また、VRユーザが、仮想電子ピアノを操作した際の、当該操作に対応する音の仮想空間11における出力は、スピーカ216が行ってもよい。 Note that when the MR user 6 operates the electronic piano, the sound corresponding to the operation may be outputted in the mixed reality space 21 by the speaker of the electronic piano or by the speaker 416. Further, when the VR user operates the virtual electronic piano, the speaker 216 may output the sound corresponding to the operation in the virtual space 11.

<情報処理システムの実行する処理>
次に図11~図14を参照しながら、情報処理システム100が実行する処理の流れについて説明する。
<Processing executed by the information processing system>
Next, the flow of processing executed by the information processing system 100 will be described with reference to FIGS. 11 to 14.

VRシステム200の実行する処理の一例について、図11を参照しながら説明する。 An example of processing executed by the VR system 200 will be described with reference to FIG. 11.

ステップS101において、コンピュータ300のプロセッサ301は、仮想空間データを特定し、仮想空間11を定義する。 In step S101, the processor 301 of the computer 300 identifies virtual space data and defines the virtual space 11.

ステップS102において、プロセッサ301は、仮想空間11に、VRユーザのVRアバター25を配置する。 In step S102, the processor 301 places the VR user's VR avatar 25 in the virtual space 11.

ステップS103において、プロセッサ301は、ネットワーク2を介してコンピュータ300と接続されるコンピュータ500であって、当該仮想空間11と対応する複合現実空間21を制御するコンピュータ500のプロセッサ501から、複合現実空間21中のMRユーザ6の位置を示す位置情報を取得する。 In step S103, the processor 301 receives information from the mixed reality space 21 from the processor 501 of the computer 500, which is connected to the computer 300 via the network 2 and controls the mixed reality space 21 corresponding to the virtual space 11. The location information indicating the location of the MR user 6 inside is acquired.

ステップS104において、プロセッサ301は、ステップS103で取得した位置情報に基づいて、複合現実空間21中のMRユーザ6の位置に対応する仮想空間11中の位置に、MRユーザ6のMRアバター26を配置する。 In step S104, the processor 301 places the MR avatar 26 of the MR user 6 at a position in the virtual space 11 that corresponds to the position of the MR user 6 in the mixed reality space 21, based on the position information acquired in step S103. do.

ステップS105において、プロセッサ301は、仮想空間11に仮想オブジェクトとしての仮想模型30を配置する。プロセッサ301は、複合現実空間21中の仮想模型30の位置と対応する仮想空間11中の位置に仮想模型30を配置する。なお、対応する位置に配置するとは、複合現実空間21中の位置が先行して決まるものであってもよく、仮想空間11中の位置が先行して決まるものであってもよい。 In step S105, the processor 301 arranges the virtual model 30 as a virtual object in the virtual space 11. The processor 301 places the virtual model 30 at a position in the virtual space 11 that corresponds to the position of the virtual model 30 in the mixed reality space 21 . Note that arranging at corresponding positions may mean that the position in the mixed reality space 21 is determined in advance, or the position in the virtual space 11 may be determined in advance.

ステップS106において、プロセッサ301は、VRユーザからの入力を受け付ける。具体的には、プロセッサ301は、例えば、VRユーザの動きを検出する検出手段の出力をVRユーザからの入力として受け付ける。 In step S106, the processor 301 receives input from the VR user. Specifically, the processor 301 receives, for example, the output of a detection means for detecting the movement of the VR user as an input from the VR user.

ステップS107において、プロセッサ301は、VRユーザからの入力に基づいて仮想空間11中の仮想オブジェクトに所定の変化を与える。具体的には、プロセッサ301は、例えば、VRユーザからの入力に基づいて、仮想空間11中のVRアバター25または仮想模型30を動かす。例えば、当該入力がVRアバター25に関するものであった場合、プロセッサ301は、VRアバター25を動かす。また、例えば、当該入力が仮想模型30に関するものであった場合、プロセッサ301は、仮想模型30を動かす。また、プロセッサ301は、VRユーザからの入力に関する情報を、プロセッサ501に送信する。 In step S107, the processor 301 applies a predetermined change to the virtual object in the virtual space 11 based on input from the VR user. Specifically, the processor 301 moves the VR avatar 25 or the virtual model 30 in the virtual space 11 based on input from a VR user, for example. For example, if the input is related to the VR avatar 25, the processor 301 moves the VR avatar 25. Further, for example, if the input is related to the virtual model 30, the processor 301 moves the virtual model 30. Additionally, the processor 301 transmits information regarding input from the VR user to the processor 501.

ステップS108において、プロセッサ301は、プロセッサ501が受け付けたMRユーザ6からの入力に関する情報を取得する。 In step S108, the processor 301 acquires information regarding the input received by the processor 501 from the MR user 6.

ステップS109において、プロセッサ301は、ステップS108で取得したMRユーザ6からの入力に基づいて、仮想空間11中の仮想オブジェクトに所定の変化を与える。具体的には、プロセッサ301は、例えば、MRユーザ6からの入力に基づいて、仮想空間11中のMRアバター26または仮想模型30を動かす。例えば、当該入力がMRアバター26に関するものであった場合、プロセッサ301は、MRアバター26を動かす。また、当該入力が仮想模型30に関するものであった場合、プロセッサ301は、仮想模型30を動かす。 In step S109, the processor 301 applies a predetermined change to the virtual object in the virtual space 11 based on the input from the MR user 6 obtained in step S108. Specifically, the processor 301 moves the MR avatar 26 or the virtual model 30 in the virtual space 11 based on input from the MR user 6, for example. For example, if the input is related to the MR avatar 26, the processor 301 moves the MR avatar 26. Further, if the input is related to the virtual model 30, the processor 301 moves the virtual model 30.

次に、MRシステム400の実行する処理の一例について、図12を参照しながら説明する。 Next, an example of processing executed by the MR system 400 will be described with reference to FIG. 12.

ステップS201において、コンピュータ500のプロセッサ501は、複合現実空間21を定義する。 In step S201, the processor 501 of the computer 500 defines the mixed reality space 21.

ステップS202において、プロセッサ501は、複合現実空間21内のMRユーザ6の位置を検出する。また、プロセッサ501は、検出したMRユーザ6の位置を示す位置情報を、ネットワーク2を介してコンピュータ500と接続されるコンピュータ300であって、当該複合現実空間21と対応する仮想空間11を制御するコンピュータ300のプロセッサ301に送信する。 In step S202, the processor 501 detects the position of the MR user 6 within the mixed reality space 21. Further, the processor 501 uses position information indicating the detected position of the MR user 6 to control the virtual space 11, which is a computer 300 connected to the computer 500 via the network 2 and corresponds to the mixed reality space 21. It is transmitted to the processor 301 of the computer 300.

ステップS203において、プロセッサ501は、プロセッサ301から、仮想空間11中のVRアバター25の位置を示す位置情報を取得する。 In step S203, the processor 501 acquires position information indicating the position of the VR avatar 25 in the virtual space 11 from the processor 301.

ステップS204において、プロセッサ501は、ステップS203で取得した位置情報に基づいて、仮想空間11中のVRアバター25の位置に対応する複合現実空間21中の位置に、VRアバター25を配置する。なお、対応する位置に配置するとは、仮想空間11中の位置が先行して決まるものであってもよく、複合現実空間21中の位置が先行して決まるものであってもよい。 In step S204, the processor 501 places the VR avatar 25 at a position in the mixed reality space 21 that corresponds to the position of the VR avatar 25 in the virtual space 11, based on the position information acquired in step S203. Note that arranging at corresponding positions may mean that the position in the virtual space 11 is determined in advance, or the position in the mixed reality space 21 may be determined in advance.

ステップS205において、プロセッサ501は、複合現実空間21に仮想オブジェクトとしての仮想模型30を配置する。プロセッサ501は、仮想空間11中の仮想模型30の位置と対応する複合現実空間21中の位置に仮想模型30を配置する。 In step S205, the processor 501 places the virtual model 30 as a virtual object in the mixed reality space 21. The processor 501 places the virtual model 30 at a position in the mixed reality space 21 that corresponds to the position of the virtual model 30 in the virtual space 11 .

ステップS206において、プロセッサ501は、MRユーザ6からの入力を受け付ける。具体的には、プロセッサ501は、例えば、MRユーザ6の動きを検出する検出手段の出力をMRユーザ6からの入力として受け付ける。 In step S206, processor 501 receives input from MR user 6. Specifically, the processor 501 receives, for example, the output of a detection means for detecting the movement of the MR user 6 as an input from the MR user 6.

ステップS207において、プロセッサ501は、MRユーザ6からの入力に基づいて、複合現実空間21中の仮想オブジェクトに所定の変化を与える。具体的には、プロセッサ501は、例えば、MRユーザ6からの入力に基づいて、複合現実空間21中の仮想模型30を動かす。また、プロセッサ501は、MRユーザ6からの入力に関する情報を、プロセッサ301に送信する。 In step S207, the processor 501 applies a predetermined change to the virtual object in the mixed reality space 21 based on the input from the MR user 6. Specifically, the processor 501 moves the virtual model 30 in the mixed reality space 21 based on input from the MR user 6, for example. Further, the processor 501 transmits information regarding input from the MR user 6 to the processor 301.

ステップS208において、プロセッサ501は、プロセッサ301が受け付けたVRユーザからの入力に関する情報を取得する。 In step S208, the processor 501 acquires information regarding the input received by the processor 301 from the VR user.

ステップS209において、プロセッサ501は、ステップS208で取得したVRユーザからの入力に基づいて、複合現実空間21中の仮想オブジェクトに所定の変化を与える。具体的には、プロセッサ501は、例えば、VRユーザからの入力に基づいて、複合現実空間21中のVRアバター25または仮想模型30を動かす。例えば、当該入力がVRアバター25に関するものであった場合、プロセッサ501は、VRアバター25を動かす。また、当該入力が仮想模型30に関するものであった場合、プロセッサ501は、仮想模型30を動かす。 In step S209, the processor 501 applies a predetermined change to the virtual object in the mixed reality space 21 based on the input from the VR user obtained in step S208. Specifically, the processor 501 moves the VR avatar 25 or the virtual model 30 in the mixed reality space 21 based on, for example, input from a VR user. For example, if the input is related to the VR avatar 25, the processor 501 moves the VR avatar 25. Further, if the input is related to the virtual model 30, the processor 501 moves the virtual model 30.

次に、MRユーザ6の行動を仮想空間11に反映させる処理の一例について、図13を参照しながら説明する。 Next, an example of a process for reflecting the behavior of the MR user 6 in the virtual space 11 will be described with reference to FIG. 13.

ステップS301において、プロセッサ501は、MRユーザ6からの入力を受け付ける。具体的には、プロセッサ501は、例えば、特定の現実オブジェクト(例えば、黒板35、レーザポインタまたは電子ピアノ等)に対するMRユーザ6の行動を検出する検出手段の出力をMRユーザ6からの入力として受け付ける。 In step S301, processor 501 receives input from MR user 6. Specifically, the processor 501 receives, as an input from the MR user 6, the output of a detection means that detects the behavior of the MR user 6 with respect to a specific real object (for example, the blackboard 35, a laser pointer, or an electronic piano). .

ステップS302において、プロセッサ501は、ステップS301で受け付けたMRユーザ6からの入力に関する情報を、プロセッサ301(換言すると、VRシステム200)に送信する。 In step S302, the processor 501 transmits information regarding the input from the MR user 6 accepted in step S301 to the processor 301 (in other words, the VR system 200).

ステップS303において、プロセッサ301は、ステップS302で送信された情報に基づいて、MRユーザ6が行動を行った特定の現実オブジェクトに対応する仮想オブジェクトに所定の変化を与える。例えば、MRユーザ6が、黒板35に所定の記入内容を記入する記入動作を行った場合、プロセッサ301は、黒板35に対応する仮想黒板36を当該所定の記入内容を表示する状態に変化させる。 In step S303, the processor 301 gives a predetermined change to the virtual object corresponding to the specific real object on which the MR user 6 acted, based on the information transmitted in step S302. For example, when the MR user 6 performs a writing operation to write predetermined contents on the blackboard 35, the processor 301 changes the virtual blackboard 36 corresponding to the blackboard 35 to a state where the predetermined contents are displayed.

次に、VRユーザの行動を複合現実空間21に反映させる処理の一例について、図14を参照しながら説明する。 Next, an example of a process for reflecting the VR user's actions in the mixed reality space 21 will be described with reference to FIG. 14.

ステップS351において、プロセッサ301は、VRユーザからの入力を受け付ける。具体的には、プロセッサ301は、例えば、特定の現実オブジェクトに対応する仮想オブジェクト(例えば、仮想黒板36または仮想電子ピアノ等)に対するVRユーザの行動を検出する検出手段の出力をVRユーザからの入力として受け付ける。 In step S351, the processor 301 receives input from the VR user. Specifically, the processor 301 inputs the output of a detection means for detecting the VR user's behavior toward a virtual object (for example, the virtual blackboard 36 or the virtual electronic piano, etc.) corresponding to a specific real object from the input from the VR user. accepted as.

ステップS352において、プロセッサ301は、ステップS351で受け付けたVRユーザからの入力に関する情報を、プロセッサ501(換言すると、MRシステム400)に送信する。 In step S352, the processor 301 transmits information regarding the input from the VR user accepted in step S351 to the processor 501 (in other words, the MR system 400).

ステップS353において、プロセッサ501は、ステップS352で送信された情報に基づいて、特定の現実オブジェクトに対応する仮想オブジェクトに対してVRユーザが行った行動を、当該特定の現実オブジェクトに反映させる。例えば、VRユーザが、仮想黒板36に所定の記入内容を記入する記入動作を行った場合、プロセッサ501は、黒板35を当該所定の記入内容を表示する状態に変化させる。 In step S353, the processor 501 causes the action performed by the VR user on the virtual object corresponding to the specific real object to be reflected in the specific real object, based on the information transmitted in step S352. For example, when the VR user performs a writing operation to write predetermined contents on the virtual blackboard 36, the processor 501 changes the blackboard 35 to a state where the predetermined contents are displayed.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。第2の実施形態の情報処理システム100は、第1の実施形態で説明した内容を矛盾の生じない範囲で採用し得る。例えば、第2の実施形態の情報処理システム100は、第1の実施形態の情報処理システムの構成の一部または全部を含み得る。以下では、第1の実施形態において説明した事項については、説明を省略ないし簡略化する。
[Second embodiment]
Next, a second embodiment of the present invention will be described. The information processing system 100 of the second embodiment can employ the contents described in the first embodiment to the extent that no contradiction occurs. For example, the information processing system 100 of the second embodiment may include part or all of the configuration of the information processing system of the first embodiment. In the following, description of the matters described in the first embodiment will be omitted or simplified.

以下では、情報処理システム100が、仮想空間11で行われている事象が複合現実空間21に反映されるサービスに適用される場合を例に説明する。具体的には、以下では、現実に存在する場所(一例として、以下では「街A」とする。)を模した仮想空間11中における特定の位置(一例として、以下では街Aに実在する「店Bの前」(換言すると、店Bを模した仮想オブジェクトの前)とする。)で行われている事象(一例として、以下では「音楽ライブ」とする。)を、当該特定の位置に対応する現実空間中の位置(ここでは、店Bの前)にいるMRユーザ6がMR装置410を介して体験可能(ここでは、音楽ライブの視聴が可能)な情報処理システム100について説明する。 In the following, a case where the information processing system 100 is applied to a service in which an event occurring in the virtual space 11 is reflected in the mixed reality space 21 will be described as an example. Specifically, in the following, a specific position in the virtual space 11 imitating a place that actually exists (as an example, hereinafter referred to as "town A") (as an example, hereinafter referred to as "town A") In front of store B (in other words, in front of a virtual object imitating store B). An information processing system 100 that can be experienced by an MR user 6 at a corresponding position in the real space (here, in front of store B) via the MR device 410 (here, live music can be viewed) will be described.

座標定義部812は、GPSセンサ(換言すると、位置検出手段)によって測定される座標と、仮想空間座標との対応関係(換言すると、現実空間中の地点と仮想空間11中の地点との対応関係)に関する情報を対応関係記憶部としての記憶部611に記憶させる。換言すると、本実施形態では、現実空間(換言すると、複合現実空間)と仮想空間11との位置の対応関係を示す情報が、対応関係記憶部に予め記憶されている。 The coordinate definition unit 812 defines the correspondence between coordinates measured by a GPS sensor (in other words, position detection means) and virtual space coordinates (in other words, the correspondence between points in the real space and points in the virtual space 11). ) is stored in the storage unit 611 as a correspondence relationship storage unit. In other words, in this embodiment, information indicating the correspondence between the positions of the real space (in other words, the mixed reality space) and the virtual space 11 is stored in advance in the correspondence storage section.

MR側入力受付部816は、位置検出手段からの入力を受け付ける。位置検出手段は、MR装置410の備えるGPSセンサを用いてMRユーザ6の位置を示す位置情報を取得する。すなわち、MR側入力受付部816は、現実空間におけるMRユーザ6の現在の位置を示す位置情報(例えば、GPSセンサを用いて取得される位置情報)の入力を受け付ける。 The MR side input receiving section 816 receives input from the position detecting means. The position detection means acquires position information indicating the position of the MR user 6 using a GPS sensor included in the MR device 410. That is, the MR side input receiving unit 816 receives an input of positional information (for example, positional information acquired using a GPS sensor) indicating the current position of the MR user 6 in real space.

VRシステム200の制御部310は、仮想空間11中の特定の位置で行われる所定の事象の実行を制御する。本実施形態では、当該所定の事象は、所定のイベント(具体的には、音楽ライブ)となっている。具体的には、VR側オブジェクト制御部920は、図15に示すように、仮想空間11中の特定の位置に、所定の事象に関連する仮想オブジェクトとしての事象関連オブジェクト50を配置する。より具体的には、VR側オブジェクト制御部920は、例えば、仮想空間11中の店Bの前に、事象関連オブジェクト50としての、音楽ライブに出演するキャラクタのオブジェクト(以下、「出演キャラクタ」という。)や、音楽ライブのステージのオブジェクト等を配置する。なお、VR側オブジェクト制御部920は、VRユーザの指示(換言すると、VR側入力受付部916が受け付けるVRユーザからの入力(例えば、コントローラ280に対する操作))に基づいて事象関連オブジェクト50を配置してもよい。また、VR側オブジェクト制御部920は、本サービスの運営者の指示に基づいて事象関連オブジェクト50を配置してもよい。 The control unit 310 of the VR system 200 controls the execution of a predetermined event at a specific position in the virtual space 11. In this embodiment, the predetermined event is a predetermined event (specifically, a live music event). Specifically, as shown in FIG. 15, the VR-side object control unit 920 places an event-related object 50 as a virtual object related to a predetermined event at a specific position in the virtual space 11. More specifically, the VR-side object control unit 920, for example, creates an object of a character appearing in a music live (hereinafter referred to as "appearing character") as an event-related object 50 in front of store B in the virtual space 11. .), stage objects for music live performances, etc. Note that the VR-side object control unit 920 arranges the event-related objects 50 based on the VR user's instructions (in other words, the input from the VR user that the VR-side input reception unit 916 receives (for example, an operation on the controller 280)). You can. Further, the VR-side object control unit 920 may place the event-related object 50 based on instructions from the operator of this service.

また、VR側オブジェクト制御部920は、事象関連オブジェクト50(例えば、出演キャラクタ)を動かし、事象の進行を制御する(換言すると、イベントを進行させる)。なお、VR側オブジェクト制御部920は、VRユーザの指示(換言すると、VR側入力受付部916が受け付けるVRユーザからの入力(例えば、コントローラ280に対する操作))に基づいて出演キャラクタを動かすなどしてもよい。また、出演キャラクタの動き等については予め用意されており、VR側オブジェクト制御部920は、予め用意されたデータを再生することにより出演キャラクタを動かすなどしてもよい。換言すると、出演キャラクタは、VRアバター25であってもよく、ノンプレイヤキャラクタ等であってもよい。 Further, the VR-side object control unit 920 moves the event-related object 50 (for example, an appearing character) to control the progress of the event (in other words, progress the event). Note that the VR-side object control unit 920 moves the appearing character based on the VR user's instructions (in other words, the input from the VR user that the VR-side input receiving unit 916 receives (for example, an operation on the controller 280)). Good too. Further, the movements of the appearing characters are prepared in advance, and the VR-side object control unit 920 may move the appearing characters by reproducing the data prepared in advance. In other words, the appearing character may be the VR avatar 25, a non-player character, or the like.

すなわち、本実施形態の情報処理システム100では、VRシステム200(換言すると、制御部310)は、自身のキャラクタ(例えば、VRアバター25)を操作して動き回ることが可能な仮想空間11(換言すると、仮想の街A)中において特定の位置(換言すると、仮想の店Bの前)にいるVRユーザ(換言すると、特定の位置にいるキャラクタを操作するVRユーザ)に対して、所定の事象としての音楽ライブに係るビューを提供する。ここで、当該VRユーザは、音楽ライブの出演キャラクタを操作するユーザと異なるユーザ(換言すると、例えば、当該音楽ライブの観客等)であってもよく、同一のユーザ(換言すると、例えば、当該音楽ライブの演者等)であってもよい。 That is, in the information processing system 100 of the present embodiment, the VR system 200 (in other words, the control unit 310) operates the virtual space 11 (in other words, the control unit 310) in which you can move around by operating your own character (for example, the VR avatar 25). , as a predetermined event for a VR user (in other words, a VR user who operates a character in a specific position) who is at a specific location (in other words, in front of virtual store B) in the virtual town A). Provides views related to live music. Here, the VR user may be a user different from the user who operates the character appearing in the music live (in other words, for example, an audience member of the music live), or the same user (in other words, for example, live performers, etc.).

事象関連オブジェクト50には、所定の事象(換言すると、所定のイベント)に関連するオブジェクトであることを示す情報(換言すると、タグ)が付されている。また、事象関連オブジェクト50には、事象関連オブジェクト50の仮想空間中の位置(換言すると、座標)を示す位置情報が付されている。なお、事象関連オブジェクト50の位置情報は、各事象関連オブジェクト50に対して個別に付与されるものであってもよく、イベントに対してまとめて付与されるもの等であってもよい。 The event-related object 50 is attached with information (in other words, a tag) indicating that the object is related to a predetermined phenomenon (in other words, a predetermined event). Furthermore, position information indicating the position (in other words, coordinates) of the event-related object 50 in the virtual space is attached to the event-related object 50. Note that the position information of the event-related objects 50 may be provided to each event-related object 50 individually, or may be provided to events all at once.

MR側オブジェクト制御部820は、図15に示すように、仮想空間11中における事象関連オブジェクト50が配置される位置に対応する複合現実空間21中の位置に、当該事象関連オブジェクト50に対応する仮想オブジェクトを配置する。ここで、当該事象関連オブジェクト50に対応する仮想オブジェクト、すなわち仮想空間11中の事象関連オブジェクト50に対応する複合現実空間21中の仮想オブジェクトとは、例えば、仮想空間11中の事象関連オブジェクト50と同じ形態を有するもの(換言すると、同じ物体を示すもの)であってもよく、異なる形態を有するものであってもよい。本実施形態では、複合現実空間21には、仮想空間11中の事象関連オブジェクト50と同じ形態の事象関連オブジェクト50(具体的には、音楽ライブの出演キャラクタや音楽ライブのステージ等)が配置される。 As shown in FIG. 15, the MR side object control unit 820 places a virtual object corresponding to the event-related object 50 in the mixed reality space 21 at a position corresponding to the position in the virtual space 11 where the event-related object 50 is placed. Place objects. Here, the virtual object corresponding to the event-related object 50, that is, the virtual object in the mixed reality space 21 corresponding to the event-related object 50 in the virtual space 11, is, for example, the event-related object 50 in the virtual space 11. They may have the same form (in other words, they represent the same object) or may have different forms. In this embodiment, an event-related object 50 (specifically, a character appearing in a music live performance, a stage of a music live performance, etc.) having the same form as the event-related object 50 in the virtual space 11 is arranged in the mixed reality space 21. Ru.

また、MR側オブジェクト制御部820は、事象関連オブジェクト50(例えば、出演キャラクタ)を動かし、複合現実空間21において実行されるイベントを進行する。ここで、MR側オブジェクト制御部820によるイベントの進行(具体的には、出演キャラクタを動かす制御等)と、VR側オブジェクト制御部920によるイベントの進行(具体的には、出演キャラクタを動かす制御等)とは、連動している。すなわち、MR側オブジェクト制御部820は、仮想空間11中で行われているイベントを複合現実空間21に反映させる。換言すると、本実施形態では、仮想空間11で起きている事象が、複合現実空間21にもリアルタイムで反映される。具体的には、MR側オブジェクト制御部820は、複合現実空間21中の事象関連オブジェクト50が、仮想空間11中の事象関連オブジェクト50と同じ動きをするように制御する。なお、ここで「リアルタイムで反映」とは、事象の発生(換言すると、イベントの進行)に若干のずれがある場合を含み、また、仮想空間11中の事象と複合現実空間21中の事象とのどちらの進行が先行するものであってもよい。また、ここで「反映」とは、複合現実空間21中の事象関連オブジェクト50が、仮想空間11中の事象関連オブジェクト50と全く同じ動きをするものでなくてもよい。例えば、仮想空間11における出演キャラクタの動きのうち、複合現実空間21において表示される出演キャラクタには反映されない動きがあってもよい。換言すると、MRシステム400の制御部510は、VRユーザに提供されるビューと同一の事象に係るものであると判別できるビューをMRユーザ6に提供するものとしてもよい。 Further, the MR-side object control unit 820 moves the event-related object 50 (for example, the appearing character) to advance the event to be executed in the mixed reality space 21. Here, the progress of the event by the MR side object control unit 820 (specifically, control to move the appearing character, etc.) and the progress of the event by the VR side object control unit 920 (specifically, control to move the appearing character, etc.) ) are linked. That is, the MR side object control unit 820 reflects the event taking place in the virtual space 11 on the mixed reality space 21. In other words, in this embodiment, events occurring in the virtual space 11 are also reflected in the mixed reality space 21 in real time. Specifically, the MR-side object control unit 820 controls the event-related object 50 in the mixed reality space 21 to move in the same manner as the event-related object 50 in the virtual space 11. Note that "reflected in real time" includes cases where there is a slight lag in the occurrence of an event (in other words, the progress of an event), and also includes cases where there is a slight lag in the occurrence of an event (in other words, the progress of an event), and also when there is a slight lag between the event in the virtual space 11 and the event in the mixed reality space 21. Either progression may take precedence. Furthermore, here, "reflection" does not mean that the event-related object 50 in the mixed reality space 21 moves exactly the same as the event-related object 50 in the virtual space 11. For example, among the movements of the appearing characters in the virtual space 11, some movements may not be reflected in the appearing characters displayed in the mixed reality space 21. In other words, the control unit 510 of the MR system 400 may provide the MR user 6 with a view that can be determined to be related to the same event as the view provided to the VR user.

本実施形態では、仮想空間11中の街Aの店Bの前において音楽ライブが行われる場合に、複合現実空間21中の街Aの店Bの前で当該音楽ライブが行われる。すなわち、MR側オブジェクト制御部820は、仮想空間11中の特定の位置で行われている所定の事象に係る事象関連オブジェクト50を、当該特定の位置に対応する複合現実空間21中の位置に配置するとともに、当該事象関連オブジェクト50を、仮想空間11中の動きに対応した動きをするように動かす。そして、表示制御部840は、MR側入力受付部816に入力される位置情報に応じて、当該位置情報の示す複合現実空間21中の位置に配置された事象関連オブジェクト50をMR装置410のディスプレイ411に表示させる。具体的には、GPSセンサを用いて取得される位置情報(具体的には、MRユーザ6の位置を示す位置情報)の入力を受け付けるMR側入力受付部816に、MRユーザ6が現実空間において店Bの前にいることを示す位置情報が入力される場合に、制御部510は、ディスプレイ411に、仮想空間11中の店Bの前で行われている音楽ライブに係る事象関連オブジェクト50を表示させる。これにより、現実空間の店Bの前に事象関連オブジェクト50が配置された(換言すると、現実空間の店Bの前で仮想空間11で行われる音楽ライブが実行される)複合現実空間21のビューがMRユーザ6に提供される。すなわち、制御部510は、当該位置情報がMRユーザ6が仮想空間11中の特定の位置に対応する現実空間中の位置にいることを示すときに、仮想空間11中の当該特定の位置で行われている事象が反映された複合現実空間21のビューをMRユーザ6に提供する。 In this embodiment, when a live music event is held in front of store B in town A in the virtual space 11, the live music event is performed in front of store B in town A in the mixed reality space 21. That is, the MR-side object control unit 820 places the event-related object 50 related to a predetermined event occurring at a specific position in the virtual space 11 at a position in the mixed reality space 21 corresponding to the specific position. At the same time, the event-related object 50 is moved so as to make a movement corresponding to the movement in the virtual space 11. Then, the display control unit 840 displays the event-related object 50 placed at the position in the mixed reality space 21 indicated by the position information on the display of the MR apparatus 410 according to the position information input to the MR side input reception unit 816. 411. Specifically, when the MR user 6 is in real space, the MR user 6 inputs the position information obtained using the GPS sensor (specifically, the position information indicating the position of the MR user 6) to the MR side input receiving unit 816 that receives the input. When position information indicating that the user is in front of store B is input, the control unit 510 displays an event-related object 50 related to a live music event being held in front of store B in the virtual space 11 on the display 411. display. As a result, a view of the mixed reality space 21 in which the event-related object 50 is placed in front of the store B in the real space (in other words, a live music event is performed in the virtual space 11 in front of the store B in the real space) is provided to the MR user 6. That is, when the position information indicates that the MR user 6 is at a position in the real space that corresponds to a specific position in the virtual space 11, the control unit 510 performs an operation at the specific position in the virtual space 11. The MR user 6 is provided with a view of the mixed reality space 21 in which the event being viewed is reflected.

なお、制御部510は、MRユーザ6が、現実空間において、当該特定の位置に対応する位置を訪れたことに基づいて、MRユーザ6に特典を付与する特典付与部を備えていてもよい。特典は、例えば、特典を獲得したユーザがゲーム内(換言すると、サービス内)で使用可能な仮想オブジェクト(例えば、キャラクタが装備可能なアイテム等)であってもよく、現実空間中において現実の物体と交換可能な電子的チケット等であってもよく、サービス内においてユーザが所有する所定のポイント等であってもよい。また、「訪れたことに基づいて」とは、訪れたか否かを直接的に判定して特典を付与するものであってもよく、訪れることで実行可能な特定の行動(例えば、音楽ライブの視聴を開始した、終了した、あるいは所定時間以上行った、など)が行われた場合に特典を付与するもの等であってもよい。このような構成によれば、MRユーザ6に対して、現実空間において、特定の位置に対応する位置を訪れる動機付けを与えることができる。 Note that the control unit 510 may include a benefit granting unit that grants a benefit to the MR user 6 based on the fact that the MR user 6 has visited a position corresponding to the specific position in real space. The benefit may be, for example, a virtual object (for example, an item that a character can equip) that the user who has acquired the benefit can use within the game (in other words, within the service), or it may be a virtual object that can be used by a user who has acquired the benefit (for example, an item that can be equipped by a character), or a virtual object that can be used in a real space. It may be an electronic ticket or the like that can be exchanged with the user, or it may be a predetermined point owned by the user within the service. Furthermore, "based on having visited" may mean directly determining whether or not the person has visited and granting benefits, and specific actions that can be performed by visiting (for example, attending a live music concert). It may also be possible to provide a benefit when viewing (starting, finishing, or continuing for a predetermined period of time, etc.) is performed. According to such a configuration, it is possible to motivate the MR user 6 to visit a position corresponding to a specific position in real space.

このように、本実施形態においては、仮想空間11中の特定の位置で起きている所定の事象が反映された複合現実空間21のビューがMRユーザ6に提供されるが、所定の事象は音楽ライブに限らない。例えば、所定の事象は、特定のユーザが操作するキャラクタ(換言すると、所定の事象に関連する事象関連オブジェクト50)が動く事象であってもよい。具体的には、例えば、VRシステム200が、街Aを模した仮想空間11中でキャラクタを動かすことができるゲームを提供するものとする。この場合に、VR側オブジェクト制御部920は、当該特定のユーザとしてのVRユーザの指示(換言すると、VR側入力受付部916が受け付けるVRユーザからの入力(例えば、コントローラ280に対する操作))に基づいて、街Aを模した仮想空間11中でキャラクタに所定のアクション(例えば、跳躍や走行等のアクション)を実行させる。また、MR側オブジェクト制御部820は、仮想空間11中における当該キャラクタが配置される位置に対応する複合現実空間21中の位置に、当該キャラクタを配置するとともに、仮想空間11中での当該キャラクタのアクションと同様のアクションを複合現実空間21中で実行させる。すなわち、この場合、例えば、街Aを模した仮想空間11上でキャラクタを動かすゲームを当該特定のユーザとしてのVRユーザがプレイしているときに、MRユーザ6が現実空間において街Aを訪れると、制御部510が、当該特定のユーザによって動かされているゲーム中(換言すると、仮想空間11上)でのキャラクタの動きをMR装置410のディスプレイ411を介して提供される複合現実空間21のビューに反映させる。すなわち、本例においては、当該特定のユーザとしてのVRユーザのVR装置210において当該特定のユーザに提供される仮想空間11のビューと、現実空間において街AにいるMRユーザ6のMR装置410において当該MRユーザ6に提供される複合現実空間21のビューとで、当該特定のユーザにより操作される仮想オブジェクトが同様の動きをする。このような構成によれば、ゲーム画面上におけるキャラクタの動きを、現実の街において再現することなどが可能となり、サービスの興趣性を向上させることができる。 As described above, in this embodiment, the MR user 6 is provided with a view of the mixed reality space 21 that reflects a predetermined event occurring at a specific position in the virtual space 11, but the predetermined event is It's not limited to live performances. For example, the predetermined event may be an event in which a character operated by a specific user (in other words, an event-related object 50 related to the predetermined event) moves. Specifically, for example, assume that the VR system 200 provides a game in which a character can be moved in a virtual space 11 imitating a city A. In this case, the VR-side object control unit 920 operates based on an instruction from the VR user as the specific user (in other words, an input from the VR user (for example, an operation on the controller 280) received by the VR-side input reception unit 916). Then, the character is caused to perform a predetermined action (for example, an action such as jumping or running) in a virtual space 11 imitating the city A. Further, the MR-side object control unit 820 places the character at a position in the mixed reality space 21 that corresponds to the position where the character is placed in the virtual space 11, and An action similar to the action is executed in a mixed reality space 21. That is, in this case, for example, when the VR user as the specific user is playing a game in which the character is moved in the virtual space 11 imitating the city A, if the MR user 6 visits the city A in the real space. , the control unit 510 displays a view of the mixed reality space 21 provided via the display 411 of the MR device 410 of the movement of the character in the game (in other words, on the virtual space 11) that is being moved by the specific user. be reflected in. That is, in this example, the view of the virtual space 11 provided to the specific user in the VR device 210 of the VR user as the specific user, and the view of the MR device 410 of the MR user 6 who is in town A in the real space. The virtual object operated by the specific user moves in the same way as the view of the mixed reality space 21 provided to the MR user 6. According to such a configuration, it is possible to reproduce the movement of a character on a game screen in a real city, and it is possible to improve the interest of the service.

なお、仮想空間11中の特定の位置で起きている所定の事象が反映された複合現実空間21のビューの提供を受けられるMRユーザ6が限定されていてもよい。具体的には、記憶部511は、当該ビューの提供を受ける権利に関する情報(以下、「権利情報」という。)を記憶する権利情報記憶部として機能し、制御部510は、MRユーザ6が当該権利を有する場合に当該ビューをMRユーザ6に提供し、当該権利を有しない場合に当該ビューをMRユーザ6に提供しないこととしてもよい。また、当該権利は、例えば、MRユーザ6が対価を払うこと(例えば、現金の支払い、あるいはサービス内でのMRユーザ6の保有資産(例えば、仮想通貨等)の消費等)によりMRユーザ6に付与されるものであってもよい。具体的には、例えば、サービス内において、音楽ライブの視聴に係る権利を購入可能となっていてもよい。より具体的には、例えば、権利情報として、サービス内で購入可能な音楽ライブのチケットの有無に関する情報が記憶され、制御部510は、当該チケットを有するMRユーザ6が音楽ライブの視聴をすることができ、当該チケットを有しないMRユーザ6が音楽ライブの視聴をすることができないように制御してもよい。換言すると、権利情報として、当該ビューの提供を受ける権利に係るアイテム(例えば、チケット等)の保有に関する情報が記憶され、制御部510は、MRユーザ6が当該アイテムを有している場合に、当該ビューをMRユーザ6に提供してもよい。なお、当該権利(換言すると、当該アイテム)は、サービス内における所定のミッションの達成等により得られるようにしてもよい。 Note that the MR users 6 who can receive the view of the mixed reality space 21 reflecting a predetermined event occurring at a specific position in the virtual space 11 may be limited. Specifically, the storage unit 511 functions as a rights information storage unit that stores information regarding the right to receive the view (hereinafter referred to as “rights information”), and the control unit 510 The view may be provided to the MR user 6 if the user has the right, and the view may not be provided to the MR user 6 if the user does not have the right. In addition, the rights may be granted to the MR user 6 by the MR user 6 paying a consideration (e.g., cash payment, consumption of assets held by the MR user 6 (e.g. virtual currency, etc.) within the service, etc.). It may be provided. Specifically, for example, the right to view live music may be available for purchase within the service. More specifically, for example, information regarding the presence or absence of a live music ticket that can be purchased within the service is stored as the rights information, and the control unit 510 controls the ability of the MR user 6 who has the ticket to view the live music event. may be controlled so that the MR user 6 who does not have the ticket cannot view the live music event. In other words, information related to ownership of an item (for example, a ticket, etc.) related to the right to receive the view is stored as the right information, and the control unit 510 controls, when the MR user 6 owns the item, The view may be provided to the MR user 6. Note that the right (in other words, the item) may be obtained by completing a predetermined mission within the service.

また、制御部510は、仮想空間11中の特定の位置で起きている所定の事象であって、MRユーザ6が複数のユーザの中から選択したVRユーザに関連する所定の事象が反映された複合現実空間21のビューを当該MRユーザ6に提供してもよい。換言すると、MR側入力受付部816は、MRユーザ6による、複数のユーザのうちのいずれのユーザに関連する所定の事象を反映させるか選択する操作(例えば、コントローラ480に対する操作)に係る入力を受け付け、制御部510は、当該操作により選択されたVRユーザに関連する所定の事象を当該MRユーザ6に提供されるビューに反映させてもよい。当該操作は、例えば、MRユーザ6が、自身のフレンドの中から、事象の反映を受けるユーザを選択する操作であってもよい。また、全てのフレンドに関連する所定の事象が反映されるようになっており、当該操作は、他のユーザをフレンドとして登録する操作等であってもよい。換言すると、本実施形態のサービスでは、MRユーザ6は、自身のフレンドに関連する所定の事象が反映された複合現実空間21のビューの提供を受けることができるようになっていてもよい。また、例えば、当該操作は、複数のプレイヤの中から、プロのプレイヤ等のMRユーザ6が所定の事象の反映を受けたいユーザを選択する操作であってもよい。すなわち、例えば、制御部510は、MRユーザ6が選択したプレイヤ(換言すると、特定のVRユーザ)が街Aを模した仮想空間11中でキャラクタを動かす前述のゲームをプレイしている場合に、当該プレイヤによって動かされているゲーム中(換言すると、仮想空間11上)でのキャラクタの動きを当該MRユーザ6に提供される複合現実空間21のビューに反映させるなどしてもよい。換言すると、MRユーザ6は、複数のユーザのうちの自身に関連付けられたユーザに関連する所定の事象が反映された複合現実空間21のビューの提供を受けることができるようになっていてもよい。また、例えば、制御部510は、MRユーザ6が選択した芸能人が仮想空間11中でライブを行っている場合に、当該ライブを当該MRユーザ6に提供される複合現実空間21のビューに反映させるなどしてもよい。なお、特定のユーザに関連する事象が複数ある場合に、当該特定のユーザに関連する特定の事象を、反映を受ける事象として選択することが可能となっていてもよい。 Further, the control unit 510 is configured to reflect a predetermined event occurring at a specific position in the virtual space 11 and related to a VR user selected by the MR user 6 from among a plurality of users. A view of the mixed reality space 21 may be provided to the MR user 6. In other words, the MR side input reception unit 816 receives an input by the MR user 6 related to an operation (for example, an operation on the controller 480) for selecting which of a plurality of users a predetermined event related to a user is to be reflected. Upon reception, the control unit 510 may reflect a predetermined event related to the VR user selected by the operation on the view provided to the MR user 6. The operation may be, for example, an operation in which the MR user 6 selects a user from among his/her friends to whom the event will be reflected. Further, predetermined events related to all friends are reflected, and the operation may be an operation of registering another user as a friend. In other words, in the service of this embodiment, the MR user 6 may be provided with a view of the mixed reality space 21 that reflects a predetermined event related to his or her friend. Further, for example, the operation may be an operation in which the MR user 6, such as a professional player, selects a user from among a plurality of players to whom a predetermined event is to be reflected. That is, for example, when the player selected by the MR user 6 (in other words, a specific VR user) is playing the above-mentioned game in which a character is moved in the virtual space 11 imitating the city A, the control unit 510 The movement of the character being moved by the player in the game (in other words, on the virtual space 11) may be reflected in the view of the mixed reality space 21 provided to the MR user 6. In other words, the MR user 6 may be able to receive a view of the mixed reality space 21 that reflects a predetermined event related to the user associated with the user among the plurality of users. . Further, for example, when a celebrity selected by the MR user 6 is performing a live performance in the virtual space 11, the control unit 510 causes the live performance to be reflected in the view of the mixed reality space 21 provided to the MR user 6. etc. Note that when there are multiple events related to a specific user, it may be possible to select the specific event related to the specific user as the event to be reflected.

なお、このように、本実施形態のサービスでは、各ユーザ(例えば、MRユーザ6やVRユーザ)は、他のユーザ(例えば、VRユーザやMRユーザ6)をフレンドとして登録することができるようになっていてもよい。各ユーザは、例えば、コントローラ280,480に対する所定の操作に基づいて、自分以外の他のユーザをフレンドとして登録することができる。また、フレンドとして登録とは、あるユーザが、他のユーザを自分に関連付けることともいえる。また、フレンドとして登録とは、自分以外の特定のユーザを、ブックマークすることともいえる。フレンドとして登録とは、あるユーザ(具体的には、フレンド)に関する情報(例えば、ログイン状態に関する情報等)を他のユーザ(具体的には、非フレンド)に関する情報に比べて呼び出しやすい状態にしておくことともいえる。なお、あるユーザが他のユーザをフレンドとして登録しているが、当該他のユーザが当該あるユーザをフレンドとして登録していない状態が存在してもよい。すなわち、当該あるユーザが当該他のユーザを一方的にフォローしている状態が存在してもよい。また、当該あるユーザと当該他のユーザとが相互にフォローしている状態が存在してもよい。なお、一方的にフォローしている状態が存在しないこととしてもよい。換言すると、本実施形態において「フレンド」とは、あるユーザから見たときの、相互的なフォロー関係が成立している他のユーザのみを指すこととしてもよく、一方的なフォロー関係が成立している他のユーザを指すこととしてもよい。 In addition, in this way, in the service of this embodiment, each user (for example, MR user 6 and VR user) can register other users (for example, VR user and MR user 6) as friends. It may be. Each user can register other users as friends, for example, based on a predetermined operation on the controllers 280, 480. Moreover, registering as a friend can also be said to mean that a certain user associates another user with himself/herself. Moreover, registering as a friend can also be said to bookmark a specific user other than yourself. Registering as a friend means making information about a certain user (specifically, a friend) (for example, information about login status, etc.) easier to recall than information about other users (specifically, non-friends). It can also be said to be kept. Note that there may be a situation in which a certain user has registered another user as a friend, but the other user has not registered the certain user as a friend. That is, there may be a state in which the certain user unilaterally follows the other user. Further, there may be a state in which the certain user and the other user are mutually following each other. Note that it may also be possible that there is no unilateral following state. In other words, in this embodiment, a "friend" may refer only to another user with whom a mutual follow relationship has been established from the perspective of a certain user, and a unilateral follow relationship may not be established. It may also refer to other users.

また、制御部510は、仮想空間11中の特定の位置で行われている所定の事象であって、MRユーザ6に設定された属性に対応する属性を有する所定の事象が反映された複合現実空間21のビューを当該MR6ユーザに提供してもよい。具体的には、例えば、各MRユーザ6にはユーザの趣味、嗜好に係る属性、より具体的には「音楽好き」や「お笑い好き」(あるいは「特定の芸能人が好き」)等の属性が付されるようになっていてもよい。そして、制御部510は、例えば、「音楽好き」という属性が付されたMRユーザ6に対しては、「音楽」という属性が付された所定の事象を反映させ、「音楽好き」という属性が付されていないMRユーザ6に対しては、「音楽」という属性が付された所定の事象を反映させないようにしてもよい。また、制御部510は、例えば、「お笑い好き」という属性が付されたMRユーザ6に対しては、「お笑い」という属性が付された所定の事象を反映させ、「お笑い好き」という属性が付されていないMRユーザ6に対しては、「お笑い」という属性が付された所定の事象を反映させないようにしてもよい。なお、MRユーザ6に設定される属性は、各MRユーザ6が自身で設定すること(例えば、コントローラ480を介しての自身の好みの入力等)が可能となっていてもよく、AI(Artificial Intelligence)によって自動的に(例えば、サービス内でのユーザの行動等に応じて)設定されるなどしてもよい。 The control unit 510 also controls a mixed reality in which a predetermined event occurring at a specific position in the virtual space 11 and having an attribute corresponding to the attribute set for the MR user 6 is reflected. A view of space 21 may be provided to the MR 6 user. Specifically, for example, each MR user 6 has attributes related to the user's hobbies and preferences, more specifically, attributes such as "I like music" and "I like comedy" (or "I like a specific celebrity"). may be attached. Then, for example, the control unit 510 reflects a predetermined event with the attribute "music" on the MR user 6 with the attribute "music lover", and the control unit 510 reflects the predetermined event with the attribute "music" on the MR user 6 with the attribute "music lover". A predetermined event to which the attribute "music" is attached may not be reflected to the MR users 6 to whom the attribute is not attached. Further, for example, the control unit 510 reflects a predetermined event with the attribute "comedy" on the MR user 6 who has the attribute "comedy lover", so that the attribute "comedy lover" is reflected on the MR user 6. A predetermined event to which the attribute "comedy" is attached may not be reflected to the MR user 6 who is not attached. Note that the attributes set for the MR users 6 may be set by each MR user 6 himself (for example, by inputting his own preferences via the controller 480), and may be set using AI (Artificial Intelligence) may be automatically set (for example, according to the user's behavior within the service).

以上のように、制御部510は、仮想空間11中で行われる複数の事象のうち、MRユーザ6が選択した特定の事象(例えば、MRユーザ6が選択した特定のユーザに関連する事象や、MRユーザ6が設定した自身の属性に対応する属性を有する事象や、MRユーザ6が購入したチケットに係る事象等)を、複合現実空間21に反映させてもよい。換言すると、制御部510は、仮想空間11中で行われる複数の事象のうち、MRユーザ6が選択していない事象を、複合現実空間21に反映させなくてもよい。このように、選択していない事象を複合現実空間21に反映させない場合に、ユーザの選択に関わらず反映される事象が存在してもよい。換言すると、「選択していない事象を複合現実空間21に反映させない」とは、選択がされている場合に複合現実空間21への反映がされる事象であって、選択がされていない場合に複合現実空間21への反映がされない事象が少なくとも1つ存在すればよい。なお、事象の選択は、MRユーザ6が選択する特定の事象が発生(換言すると、開始)する前に行うことが可能となっていてもよく、当該特定の事象が発生した後(換言すると、行われている最中)に行うことが可能となっていてもよい。 As described above, the control unit 510 controls a specific event selected by the MR user 6 from among a plurality of events that occur in the virtual space 11 (for example, an event related to a specific user selected by the MR user 6, An event having an attribute corresponding to the own attribute set by the MR user 6, an event related to a ticket purchased by the MR user 6, etc.) may be reflected in the mixed reality space 21. In other words, the control unit 510 does not have to reflect in the mixed reality space 21 an event that is not selected by the MR user 6 among the multiple events that occur in the virtual space 11 . In this way, when unselected events are not reflected in the mixed reality space 21, there may be events that are reflected regardless of the user's selection. In other words, "not to reflect an unselected event in the mixed reality space 21" means an event that is reflected in the mixed reality space 21 when a selection is made, and an event that is reflected in the mixed reality space 21 when a selection is not made. It is sufficient that at least one event that is not reflected in the mixed reality space 21 exists. Note that the event selection may be made before the specific event selected by the MR user 6 occurs (in other words, starts), or after the specific event occurs (in other words, It may also be possible to perform the process while the process is being performed.

なお、事象が行われる仮想空間11は、当該事象が反映される現実空間を模したものでなくてもよい。例えば、現実に存在する街Aの店Bの前の広場に対応した領域を仮想空間11内に用意し、当該領域で行われる所定の事象を、現実空間において当該広場にいるMRユーザ6のMR装置410に反映させてもよい。この場合、対応関係記憶部としての記憶部611には、例えば、当該領域と当該広場との対応関係を示す情報を記憶させることができる。なお、第3の実施の形態で説明される、現実空間の事象が反映される仮想空間11についても同様に、現実空間を模したものでなくてもよい。 Note that the virtual space 11 in which an event takes place does not have to imitate the real space in which the event is reflected. For example, an area corresponding to a plaza in front of store B in town A that actually exists is prepared in the virtual space 11, and a predetermined event that takes place in the area is transmitted to the MR user 6 who is in the plaza in the real space. It may also be reflected on the device 410. In this case, the storage unit 611 serving as the correspondence storage unit can store, for example, information indicating the correspondence relationship between the area and the plaza. Note that the virtual space 11 in which events in the real space are reflected, which will be described in the third embodiment, does not have to imitate the real space.

また、事象が行われる仮想空間11は、当該事象が反映される現実空間の地形を模したものであって、景観の異なるものであってもよい。例えば、本実施形態において、仮想空間11を、現実に存在する街Aの地形を模したものであって、街並みの異なるものとしてもよい。具体的には、仮想空間11を、過去(例えば、江戸時代)の街Aに対応する地域を再現したものとし、再現した当該地域の各地点と、現実空間の現在の街Aの各地点とが地図上の同じ場所(換言すると、同じ経緯度の場所)を指すように現実空間中の地点と仮想空間11中の地点とを対応付けてもよい。そして、再現した当該地域の特定の位置で行われる所定の事象を、現実空間において当該特定の位置に対応する位置にいるMRユーザ6のMR装置410に反映させてもよい。なお、第3の実施の形態で説明される、現実空間の事象が反映される仮想空間11についても同様に、現実空間の地形を模したものであって、景観の異なるものであってもよい。 Further, the virtual space 11 in which the event takes place may be one that imitates the topography of the real space in which the event is reflected, and may have a different landscape. For example, in this embodiment, the virtual space 11 may be one that imitates the topography of the city A that actually exists, and may have a different cityscape. Specifically, the virtual space 11 is a reproduction of an area corresponding to town A in the past (for example, the Edo period), and each point in the recreated area is compared with each point in current town A in the real space. Points in the real space and points in the virtual space 11 may be associated so that they point to the same location on the map (in other words, locations at the same latitude and longitude). Then, the reproduced predetermined event that takes place at a specific location in the area may be reflected on the MR device 410 of the MR user 6 who is located at a position corresponding to the specific location in real space. Note that the virtual space 11, which will be described in the third embodiment and in which events in the real space are reflected, may also be one that imitates the topography of the real space and may have a different landscape. .

なお、所定の事象に関する複合現実空間21のビューは、透過型のディスプレイ411を介して見える現実空間に仮想オブジェクトを重畳させるMR装置410により提供されるものでなくてもよく、例えば、カメラにより撮影される現実空間の画像に仮想オブジェクトを重畳させた画像をディスプレイ411に表示させるスマートフォン等により提供されてもよい。換言すると、複合現実空間21のビューの提供は、例えば、透過型のディスプレイに事象関連オブジェクト50を表示させることにより行われてもよく、現実空間を撮影した画像に事象関連オブジェクト50を重畳させた画像をディスプレイに表示させることにより行われてもよい。さらに換言すると、現実空間を撮影した画像に仮想オブジェクトを重畳させた画像をディスプレイに表示させるスマートフォン等を含んで構成される所定のシステムが、MRシステム400の構成の少なくとも一部を有していてもよい。換言すると、本実施形態あるいは他の実施形態におけるMRシステム400は、当該所定のシステム(例えば、スマートフォン等)であるものとして読み替えることが可能である。また、本明細書においては、当該所定のシステムのユーザもMRユーザ6に該当する。 Note that the view of the mixed reality space 21 regarding a predetermined event may not be provided by the MR device 410 that superimposes a virtual object on the real space visible through the transparent display 411, but may be provided by, for example, a view taken by a camera. The virtual object may be provided by a smartphone or the like that displays on the display 411 an image in which a virtual object is superimposed on an image of a real space. In other words, the view of the mixed reality space 21 may be provided by, for example, displaying the event-related object 50 on a transparent display, or by superimposing the event-related object 50 on an image taken of the real space. This may also be done by displaying an image on a display. In other words, a predetermined system including a smartphone or the like that displays on a display an image in which a virtual object is superimposed on an image taken of real space has at least a part of the configuration of the MR system 400. Good too. In other words, the MR system 400 in this embodiment or other embodiments can be read as the predetermined system (for example, a smartphone, etc.). Further, in this specification, the user of the predetermined system also corresponds to the MR user 6.

また、所定の事象に関する仮想空間11のビューは、VR装置210としてのヘッドマウントディスプレイにより提供されるものでなくてもよく、例えば、PCモニタやテレビ等に、仮想空間11の画像を表示させることにより提供されてもよい。換言すると、PCやゲーム装置、あるいはこれらの装置と所定のディスプレイとを含んで構成される所定のシステムが、VRシステム200の構成の少なくとも一部を有していてもよい。換言すると、本実施形態あるいは他の実施形態におけるVRシステム200は、当該所定のシステムであるものとして読み替えることが可能である。また、本明細書においては、当該所定のシステムのユーザもVRユーザに該当する。 Furthermore, the view of the virtual space 11 regarding a predetermined event does not have to be provided by the head-mounted display as the VR device 210; for example, it is possible to display an image of the virtual space 11 on a PC monitor, television, etc. may be provided by. In other words, a PC, a game device, or a predetermined system including these devices and a predetermined display may have at least a part of the configuration of the VR system 200. In other words, the VR system 200 in this embodiment or other embodiments can be read as the predetermined system. Furthermore, in this specification, users of the predetermined system also correspond to VR users.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。第3の実施形態の情報処理システム100は、第1の実施形態または第2の実施形態で説明した内容を矛盾の生じない範囲で採用し得る。例えば、第3の実施形態の情報処理システム100は、第1の実施形態の情報処理システムの構成の一部または全部を含み得る。また、第3の実施形態の情報処理システム100は、第2の実施形態の情報処理システムの構成の一部または全部を含み得る。以下では、第1の実施形態または第2の実施形態において説明した事項については、説明を省略ないし簡略化する。
[Third embodiment]
Next, a third embodiment of the present invention will be described. The information processing system 100 of the third embodiment can adopt the contents described in the first embodiment or the second embodiment to the extent that no contradiction occurs. For example, the information processing system 100 of the third embodiment may include part or all of the configuration of the information processing system of the first embodiment. Further, the information processing system 100 of the third embodiment may include part or all of the configuration of the information processing system of the second embodiment. In the following, description of the matters described in the first embodiment or the second embodiment will be omitted or simplified.

以下では、情報処理システム100が、現実空間で行われている事象が仮想空間11に反映されるサービスに適用される場合を例に説明する。具体的には、以下では、現実空間の所定の場所(一例として、以下では「街A」とする。)の特定の位置(一例として、以下では街Aの「店Bの前」)で行われている事象(一例として、以下では「音楽ライブ」とする。)を、当該所定の場所を模した仮想空間11中における当該特定の位置に対応する位置(ここでは、店Bの前(換言すると、店Bを模した仮想オブジェクトの前)とする。)で行う場合について説明する。すなわち、第2の実施形態においては、仮想空間11において行われている事象が現実空間に反映されるのに対し、第3の実施形態においては、現実空間において行われている事象が仮想空間11に反映される。なお、情報処理システム100が、第2の実施形態に係る構成と第3の実施形態に係る構成との両方を備え、仮想空間11において行われている事象が現実空間に反映されるとともに、現実空間において行われている事象が仮想空間11に反映されるように構成してもよい。 In the following, a case where the information processing system 100 is applied to a service in which an event occurring in the real space is reflected in the virtual space 11 will be described as an example. Specifically, in the following, the process is performed at a specific location (as an example, "in front of store B in town A" in the following) in a predetermined place in real space (as an example, in the following "town A"). An event being held (hereinafter referred to as "live music" as an example) is located at a position corresponding to the specific position in the virtual space 11 imitating the predetermined place (here, in front of store B (in other words, Then, a case will be described in which this is performed in front of a virtual object imitating store B.). That is, in the second embodiment, events taking place in the virtual space 11 are reflected in the real space, whereas in the third embodiment, events taking place in the real space are reflected in the virtual space 11. reflected in Note that the information processing system 100 includes both the configuration according to the second embodiment and the configuration according to the third embodiment, so that events occurring in the virtual space 11 are reflected in the real space, and events occurring in the virtual space 11 are reflected in the real space. It may be configured such that events occurring in the space are reflected in the virtual space 11.

座標定義部812は、GPSセンサ(換言すると、位置検出手段)によって測定される座標と、仮想空間座標との対応関係(換言すると、現実空間中の地点と仮想空間11中の地点との対応関係)に関する情報を対応関係記憶部としての記憶部611に記憶させる。換言すると、本実施形態では、現実空間(換言すると、複合現実空間)と仮想空間11との位置の対応関係を示す情報が、対応関係記憶部に予め記憶されている。 The coordinate definition unit 812 defines the correspondence between coordinates measured by a GPS sensor (in other words, position detection means) and virtual space coordinates (in other words, the correspondence between points in the real space and points in the virtual space 11). ) is stored in the storage unit 611 as a correspondence relationship storage unit. In other words, in this embodiment, information indicating the correspondence between the positions of the real space (in other words, the mixed reality space) and the virtual space 11 is stored in advance in the correspondence storage section.

本実施形態では、図16に示すように、特定の位置としての店Bの前には、検出装置460が配置されている。また、検出装置460は、カメラであり、現実空間における特定の位置としての店Bの前を撮影するようになっている。なお、店Bの前には複数の検出装置460(換言すると、カメラ)が配置されていてもよい。また、本実施形態における検出装置460(換言すると、カメラ)は、MRユーザ6の動きを検出するためのものではなく、単に所定の事象についての撮影を行うためのものであってもよい。 In this embodiment, as shown in FIG. 16, a detection device 460 is placed in front of store B as a specific location. Furthermore, the detection device 460 is a camera, and is configured to photograph the front of store B as a specific position in real space. Note that a plurality of detection devices 460 (in other words, cameras) may be arranged in front of store B. Further, the detection device 460 (in other words, a camera) in this embodiment is not for detecting the movement of the MR user 6, but may be for simply taking a picture of a predetermined event.

なお、本実施形態において、MRシステム400は、MR装置410を備えていてもよく、備えていなくてもよい。例えば、MRシステム400は、検出装置460とコンピュータ500とを備えていてもよい。また、コンピュータ500は、検出装置460の外部に設けられていてもよく、コンピュータ500の一部または全体が検出装置460に内蔵されてもよい。換言すると、本実施形態あるいは他の実施形態におけるMRシステム400は、本実施形態における店Bの前に設置された検出装置460としてのカメラであるものとして読み替えることが可能である。 Note that in this embodiment, the MR system 400 may or may not include the MR device 410. For example, MR system 400 may include detection device 460 and computer 500. Further, the computer 500 may be provided outside the detection device 460, or part or all of the computer 500 may be built into the detection device 460. In other words, the MR system 400 in this embodiment or other embodiments can be read as a camera serving as the detection device 460 installed in front of store B in this embodiment.

また、検出装置460は、GPSセンサを備え、検出装置460の位置を示す位置情報を取得可能となっている。また、MR側入力受付部816は、当該GPSセンサを用いて取得される位置情報の入力を受け付ける。すなわち、MR側入力受付部816は、特定の位置を示す位置情報の入力を受け付ける。なお、当該GPSセンサを用いて取得される位置情報は、検出装置460によって撮影される所定の事象が行われている位置を示す位置情報ともいえる。また、検出装置460がMRユーザ6等の所定の人物を撮影する場合(換言すると、当該所定の人物の動きを検出する場合)、当該GPSセンサを用いて取得される位置情報は、当該所定の人物の現在の位置を示す位置情報ともいえる。 Furthermore, the detection device 460 is equipped with a GPS sensor, and is capable of acquiring position information indicating the position of the detection device 460. Further, the MR side input reception unit 816 receives input of position information acquired using the GPS sensor. That is, the MR side input receiving unit 816 receives input of position information indicating a specific position. Note that the position information acquired using the GPS sensor can also be said to be position information indicating the position where a predetermined event photographed by the detection device 460 is taking place. Further, when the detection device 460 photographs a predetermined person such as the MR user 6 (in other words, when detecting the movement of the predetermined person), the position information acquired using the GPS sensor is It can also be said to be position information indicating the current position of a person.

制御部310は、現実空間中の特定の位置で行われる所定の事象を仮想空間11に反映させる。本実施形態では、当該所定の事象は、所定のイベント(具体的には、音楽ライブ)となっている。すなわち、制御部310は、現実の街Aの店Bの前で行われている音楽ライブが仮想空間11中の店Bの前でも行われるように制御する。 The control unit 310 causes the virtual space 11 to reflect a predetermined event that occurs at a specific position in the real space. In this embodiment, the predetermined event is a predetermined event (specifically, a live music event). That is, the control unit 310 controls so that the live music concert that is being held in front of the store B in the real city A is also performed in front of the store B in the virtual space 11.

具体的には、MR側入力受付部816(換言すると、制御部510)は、例えば、検出装置460としてのカメラが備えるイメージセンサによって撮影される画像を入力として受け付ける。ここでは、当該画像は、所定の事象としての音楽ライブを撮影した画像となっている。また、通信制御部850は、当該画像およびこの画像が取得された位置としての特定の位置を示す情報を通信制御部950に対して送り、制御部310は、図16に示すように、これらの情報に基づいて、当該画像を仮想空間11中の当該特定の位置に対応する位置(すなわち、店Bの前)に表示させる。換言すると、制御部310は、VRユーザ(換言すると、VRアバター25)が仮想空間11中において現実空間中の特定の位置に対応する位置にいる場合に、ディスプレイ211に当該画像(すなわち、当該特定の位置で行われている事象の画像)を表示させる。これにより、自身のキャラクタを操作して動き回ることが可能な仮想空間11(換言すると、仮想の街A)中において、当該特定の位置に対応する位置(換言すると、仮想の店Bの前)にいるVRユーザ(換言すると、特定の位置にいるキャラクタを操作するVRユーザ)に対して、現実空間の当該特定の位置で行われている事象に係るビューを提供することができる。すなわち、制御部310は、現実空間中の特定の位置に対応する仮想空間11中の位置にVRユーザ(換言すると、VRアバター25)がいる場合に、所定のカメラにより撮影された所定の事象に関する画像に基づいて、現実空間中の当該特定の位置で行われている事象が反映された仮想空間11のビューをVRユーザに提供する。これにより、当該VRユーザは、現実空間において当該特定の位置にいる人と体験を共有することが可能となる。なお、本実施形態では、GPSセンサによって測定される座標と、仮想空間座標との対応関係に関する情報が、現実空間中の地点と仮想空間11中の地点との対応関係を示す情報として対応関係記憶部に記憶されているが、例えば、特定の位置に設置された検出装置460を識別可能とする識別情報と、当該特定の位置に対応する仮想空間11中の位置を示す座標との対応関係に関する情報が、現実空間中の地点と仮想空間11中の地点との対応関係を示す情報として記憶されており、当該情報に基づいて特定の位置に対応する仮想空間11中の位置での所定の事象の反映が行われる等してもよい。すなわち、検出装置460を識別可能とする識別情報が、特定の位置を示す情報として機能してもよい。 Specifically, the MR-side input receiving unit 816 (in other words, the control unit 510) receives, as an input, an image captured by an image sensor included in a camera serving as the detection device 460, for example. Here, the image is an image taken of a live music event as a predetermined event. Further, the communication control unit 850 sends information indicating the image and a specific position where the image was acquired to the communication control unit 950, and the control unit 310 transmits these information as shown in FIG. Based on the information, the image is displayed at a position corresponding to the specific position in the virtual space 11 (that is, in front of store B). In other words, when the VR user (in other words, the VR avatar 25) is located in the virtual space 11 at a position corresponding to a specific position in the real space, the control unit 310 displays the image on the display 211 (i.e., the specific image of the event taking place at the location). As a result, in the virtual space 11 (in other words, virtual town A) where you can operate your character and move around, you can move to a position corresponding to the specific position (in other words, in front of virtual store B). It is possible to provide a VR user (in other words, a VR user who operates a character located at a specific location) with a view of an event occurring at the specific location in real space. That is, when the VR user (in other words, the VR avatar 25) is located at a position in the virtual space 11 that corresponds to a specific position in the real space, the control unit 310 controls the Based on the image, the VR user is provided with a view of the virtual space 11 that reflects the event taking place at the specific location in the real space. This allows the VR user to share the experience with a person at the specific location in real space. In this embodiment, information regarding the correspondence between the coordinates measured by the GPS sensor and the virtual space coordinates is stored as information indicating the correspondence between a point in the real space and a point in the virtual space 11. For example, it relates to the correspondence between identification information that enables identification of the detection device 460 installed at a specific position and coordinates indicating a position in the virtual space 11 corresponding to the specific position. The information is stored as information indicating a correspondence relationship between a point in the real space and a point in the virtual space 11, and based on the information, a predetermined event at a position in the virtual space 11 corresponding to a specific position is stored. may be reflected. That is, the identification information that allows the detection device 460 to be identified may function as information indicating a specific position.

なお、制御部310がディスプレイ211に表示させる所定の事象に係る画像は、所定のMRユーザ6が装着するMR装置410のカメラ413によって撮影されてもよい。換言すると、MR装置410が本実施形態の検出装置460として機能してもよい。さらに換言すると、所定の事象が行われる特定の位置に係る位置情報を取得するためのGPSセンサや、所定の事象に係る画像を取得するためのカメラは、MR装置410が備えるものであってもよい。また、この場合に、MR装置410を装着するMRユーザ6は、所定の事象としての所定のイベントの出演者等であってもよく、観客等であってもよい。また、位置情報の取得と所定の事象に係る画像の取得とが異なるMR装置410(換言すると、異なるユーザの使用するMR装置410)によって行われてもよい。 Note that the image related to a predetermined event that is displayed on the display 211 by the control unit 310 may be captured by the camera 413 of the MR device 410 worn by the predetermined MR user 6. In other words, the MR device 410 may function as the detection device 460 of this embodiment. In other words, even if the MR device 410 is equipped with a GPS sensor for acquiring positional information regarding a specific position where a predetermined event occurs or a camera for acquiring an image regarding the predetermined event, good. Further, in this case, the MR user 6 who wears the MR device 410 may be a performer or the like of a predetermined event as a predetermined event, or may be an audience member or the like. Furthermore, the acquisition of position information and the acquisition of images related to a predetermined event may be performed by different MR apparatuses 410 (in other words, MR apparatuses 410 used by different users).

なお、現実空間の特定の位置で行われる所定の事象の仮想空間11への反映は、以下のように行われてもよい。すなわち、制御部310は、上述したように所定の事象を撮影した画像を表示させるのではなく、所定の事象に関する人物(ここでは、音楽ライブの出演者)のアバターに所定の事象に関する動作を行わせてもよい。具体的には、第1の実施の形態におけるMRユーザ6を当該人物と読み替え、MRアバター26としての当該人物のアバターを仮想空間11上で動かしてもよい。すなわち、例えば、MR側入力受付部816は、当該人物の動きを検出する検出手段の出力を、当該人物からの入力として受け付ける。具体的には、例えば、MR側入力受付部816は、検出装置460としてのカメラが備えるイメージセンサによって撮影される画像から画像認識によって検出されるMRユーザ6の動きに関する情報を、当該人物からの入力として受け付けてもよい。また、ユーザ情報取得部818は、当該人物を識別可能とする識別情報を取得する。具体的には、ユーザ情報取得部818は、検出装置460が備えるイメージセンサによって撮影される画像から画像認識によって複合現実空間21中のMRユーザ6を識別することで、当該識別情報を取得してもよい。そして、VR側オブジェクト制御部920は、現実空間中の特定の位置に対応する仮想空間11中の位置に当該人物のアバター(換言すると、MRアバター26)を配置する。また、VR側オブジェクト制御部920は、例えば、MR側入力受付部816が受け付けた当該人物からの入力に基づいて、仮想空間11中の当該人物のアバターを動かす。具体的には、VR側オブジェクト制御部920は、例えば、MR側入力受付部816が受け付けた、MRユーザ6の動きに関する情報に基づいて、MRアバター26を動かす。すなわち、VR側オブジェクト制御部920は、仮想空間11中の当該人物のアバターの動きが、現実空間中の当該人物の動きを検出する検出手段が検出する当該人物の動きを模したものとなるように、当該人物のアバターの動きを制御する。そして、これにより、現実空間の特定の位置で行われる所定の事象が仮想空間11に反映されてもよい。このような構成によっても、現実空間中の特定の位置に対応する仮想空間11中の位置にVRユーザ(換言すると、VRアバター25)がいる場合に、所定のカメラにより撮影された所定の事象に関する画像に基づいて、現実空間中の当該特定の位置で行われている事象が反映された仮想空間11のビューをVRユーザに提供することができる。具体的には、所定のカメラにより撮影された人物のアバターによって所定の事象が再現される仮想空間11のビューをVRユーザに提供することができる。 Note that a predetermined event that occurs at a specific position in the real space may be reflected in the virtual space 11 as follows. That is, rather than displaying an image taken of a predetermined event as described above, the control unit 310 causes an avatar of a person (here, a performer of a music live performance) related to the predetermined event to perform an action related to the predetermined event. You can let it. Specifically, the MR user 6 in the first embodiment may be replaced with the person, and the avatar of the person as the MR avatar 26 may be moved on the virtual space 11. That is, for example, the MR side input receiving unit 816 receives the output of a detection means for detecting the movement of the person as an input from the person. Specifically, for example, the MR side input reception unit 816 receives information regarding the movement of the MR user 6 from the person, which is detected by image recognition from an image taken by an image sensor included in a camera as the detection device 460. May be accepted as input. Further, the user information acquisition unit 818 acquires identification information that allows the person to be identified. Specifically, the user information acquisition unit 818 acquires the identification information by identifying the MR user 6 in the mixed reality space 21 through image recognition from an image captured by an image sensor included in the detection device 460. Good too. Then, the VR-side object control unit 920 places the avatar of the person (in other words, the MR avatar 26) at a position in the virtual space 11 that corresponds to a specific position in the real space. Further, the VR-side object control unit 920 moves the avatar of the person in the virtual space 11 based on the input from the person received by the MR-side input reception unit 816, for example. Specifically, the VR-side object control unit 920 moves the MR avatar 26 based on, for example, information regarding the movement of the MR user 6 received by the MR-side input reception unit 816. That is, the VR-side object control unit 920 makes the movement of the avatar of the person in the virtual space 11 imitate the movement of the person detected by the detection means that detects the movement of the person in the real space. Then, the movement of the person's avatar is controlled. Thereby, a predetermined event that takes place at a specific position in the real space may be reflected in the virtual space 11. Even with such a configuration, when a VR user (in other words, VR avatar 25) is located at a position in the virtual space 11 corresponding to a specific position in the real space, information regarding a predetermined event photographed by a predetermined camera may be displayed. Based on the image, it is possible to provide the VR user with a view of the virtual space 11 that reflects the event taking place at the particular location in the real space. Specifically, it is possible to provide the VR user with a view of the virtual space 11 in which a predetermined event is reproduced by an avatar of a person photographed by a predetermined camera.

なお、当該人物の動きの検出は、所定のMRユーザ6が装着するMR装置410のカメラ413によって行われてもよく、コントローラ480、MRユーザ6が身につけるデバイス、注視センサ412、センサ417、またはセンサ486等によって行われてもよい。また、MR装置410を装着するMRユーザ6は、所定の事象としての所定のイベントの出演者等であってもよく、観客等であってもよい。なお、所定のカメラが備えるイメージセンサによって撮影される画像から画像認識によって人物の動きを検出して仮想空間11中のアバターに反映させる場合に、カメラに映る複数の人物のうち演者(換言すると、画像認識あるいはユーザの動きをトラッキング可能とする特定の機器の装着の有無等に基づいて識別される特定の人物)に対応するアバターのみが仮想空間11中に現れるように(特定の人物以外の人物のアバターは現れないように)してもよく、カメラに映る全ての人物についてリアルタイムでアバター(換言すると、3Dモデル)を作成し全ての人物のアバターが仮想空間11中に現れるようにしてもよい。 Note that the detection of the movement of the person may be performed by the camera 413 of the MR device 410 worn by a predetermined MR user 6, and the controller 480, the device worn by the MR user 6, the gaze sensor 412, the sensor 417, Alternatively, it may be performed using a sensor 486 or the like. Further, the MR user 6 who wears the MR device 410 may be a performer or the like of a predetermined event as a predetermined event, or may be an audience member or the like. In addition, when detecting a person's movement by image recognition from an image taken by an image sensor provided with a predetermined camera and reflecting it on the avatar in the virtual space 11, the performer (in other words, Only the avatar corresponding to a specific person (identified based on image recognition or presence or absence of a specific device that can track the user's movements) appears in the virtual space 11 (persons other than the specific person). (in other words, 3D models) may be created in real time for all the people seen in the camera so that the avatars of all the people appear in the virtual space 11. .

なお、所定の事象が行われている特定の位置としての店Bの前にいるMRユーザ6(例えば、当該所定の事象の出演者または観客)のMR装置410のディスプレイ411には、仮想空間11において当該所定の事象を見るVRユーザのVRアバター25が表示されてもよい。例えば、MR装置410の制御部510は、当該MR装置410のMR側入力受付部816にMRユーザ6が特定の位置にいることを示す位置情報が入力されると、当該特定の位置に対応する仮想空間11中の位置にいるVRアバター25の情報を通信制御部850を介して取得し、当該VRアバター25をディスプレイ411に表示させてもよい。すなわち、制御部510は、MR側入力受付部816に入力される位置情報がMRユーザ6が前記特定の位置にいることを示すときに、当該特定の位置に対応する仮想空間中の位置にいるVRアバター25の画像を前記ディスプレイに表示させてもよい。このような構成によれば、現実空間において所定の事象が行われている場所にいる人物が、仮想空間11におけるVRユーザの反応を見ることができる。具体的には、例えば、現実空間において所定のライブ(例えば、音楽ライブやお笑いライブ等)が行われている場合に、MRユーザ6としてのライブの出演者あるいは観客は、MR装置410のディスプレイ411を介してVRアバター25(換言すると、仮想空間11における観客)を視認することが可能となる。このため、MRユーザ6としてのライブの出演者あるいは観客は、仮想空間11も含めてどのぐらいの観客が集まっているかや、各観客がどのような反応をしているか等を視覚的に捉えることが可能となる。また、例えば、友人関係にあるVRユーザとMRユーザ6とが一緒に所定のイベントを視聴すること等が可能となる。 Note that the virtual space 11 is displayed on the display 411 of the MR device 410 of the MR user 6 (for example, the performer or audience member of the predetermined event) who is in front of the store B, which is the specific location where the predetermined event is taking place. A VR avatar 25 of a VR user viewing the predetermined event may be displayed. For example, when position information indicating that the MR user 6 is at a specific position is input to the MR side input receiving unit 816 of the MR apparatus 410, the control unit 510 of the MR apparatus 410 controls the Information about the VR avatar 25 located at a position in the virtual space 11 may be acquired via the communication control unit 850 and the VR avatar 25 may be displayed on the display 411. That is, when the position information input to the MR side input receiving unit 816 indicates that the MR user 6 is at the specific position, the control unit 510 determines that the MR user 6 is at a position in the virtual space corresponding to the specific position. An image of the VR avatar 25 may be displayed on the display. According to such a configuration, a person located at a location where a predetermined event is occurring in the real space can see the reaction of the VR user in the virtual space 11. Specifically, for example, when a predetermined live performance (for example, a music live performance, a comedy live performance, etc.) is being performed in a real space, performers or audience members of the live performance as the MR user 6 may watch the display 411 of the MR device 410. It becomes possible to visually recognize the VR avatar 25 (in other words, the audience in the virtual space 11) through the VR avatar 25 (in other words, the audience in the virtual space 11). For this reason, performers or spectators at a live performance as MR users 6 can visually grasp how many spectators are gathered, including the virtual space 11, and how each audience member is reacting. becomes possible. Further, for example, it becomes possible for the VR user and the MR user 6 who are friends to view a predetermined event together.

この場合に、VRアバター25が表示されるMR装置410と、所定の事象を撮影する装置(例えば、店Bの前に設置されたカメラあるいはMR装置410)とは、別々の装置であってもよく、同じ装置(具体的には、ある1人のMRユーザ6が装着するMR装置410)であってもよい。 In this case, the MR device 410 on which the VR avatar 25 is displayed and the device that photographs the predetermined event (for example, the camera or MR device 410 installed in front of store B) may be different devices. Often, they may be the same device (specifically, the MR device 410 worn by one MR user 6).

なお、所定の事象が起きている特定の位置にいるMRユーザ6に提供される複合現実空間21のビューは、透過型のディスプレイ411を介して見える現実空間に仮想オブジェクト(具体的には、VRアバター25)を重畳させるMR装置410により提供されるものでなくてもよく、例えば、カメラにより撮影される現実空間の画像に仮想オブジェクト(具体的には、VRアバター25)を重畳させた画像をディスプレイに表示させるスマートフォン等により提供されてもよい。すなわち、本実施形態に係る情報処理システム100は、例えば、演者が現実空間における特定の位置で自身のスマートフォンを使用して自撮り撮影しながら所定のライブを行う場合に、当該スマートフォンのディスプレイに、当該特定の位置に対応する仮想空間11中の位置にいるVRアバター25(例えば、観客のアバター)を表示させるように構成すること等もできる。なお、この場合に、スマートフォン等のディスプレイには、現実空間の画像にVRアバター25が重畳された複合現実空間21の画像ではなく、VRアバター25のみが表示される画像や、背景を仮想空間11(例えば、当該特定の位置に対応する仮想空間11中の位置の画像)としたVRアバター25の画像等が表示されてもよい。 Note that the view of the mixed reality space 21 provided to the MR user 6 who is located at a specific position where a predetermined event is occurring is a view of the mixed reality space 21 that shows virtual objects (specifically, VR For example, an image in which a virtual object (specifically, the VR avatar 25) is superimposed on an image of real space taken by a camera may be provided. It may also be provided by a smartphone or the like displayed on a display. That is, the information processing system 100 according to the present embodiment, for example, when a performer performs a predetermined live performance while taking selfies using his or her smartphone at a specific position in real space, the information processing system 100 displays information on the display of the smartphone. It may also be configured to display a VR avatar 25 (for example, an avatar of an audience member) located at a position in the virtual space 11 corresponding to the specific position. In this case, the display of the smartphone or the like may display an image in which only the VR avatar 25 is displayed, instead of an image in the mixed reality space 21 in which the VR avatar 25 is superimposed on an image in the real space, or an image in which the background is displayed in the virtual space 11. (For example, an image of the VR avatar 25 at a position in the virtual space 11 corresponding to the specific position) may be displayed.

なお、制御部310は、VRユーザ(換言すると、VRアバター25)が、仮想空間11において、所定の事象が行われている特定の位置に対応する位置を訪れたことに基づいて、VRユーザに特典を付与する特典付与部を備えていてもよい。特典は、例えば、特典を獲得したユーザがゲーム内(換言すると、サービス内)で使用可能な仮想オブジェクト(例えば、キャラクタが装備可能なアイテム等)であってもよく、現実空間中において現実の物体と交換可能な電子的チケット等であってもよく、サービス内においてユーザが所有する所定のポイント等であってもよい。また、「訪れたことに基づいて」とは、訪れたか否かを直接的に判定して特典を付与するものであってもよく、訪れることで実行可能な特定の行動(例えば、音楽ライブの視聴を開始した、終了した、あるいは所定時間以上行った。)が行われた場合に特典を付与するもの等であってもよい。このような構成によれば、VRユーザに対して、仮想空間11において、特定の位置に対応する位置を訪れる動機付けを与えることができる。 Note that the control unit 310 provides instructions to the VR user (in other words, the VR avatar 25) based on the fact that the VR user (in other words, the VR avatar 25) has visited a position corresponding to a specific position where a predetermined event is occurring in the virtual space 11. It may also include a benefit granting section that grants benefits. The benefit may be, for example, a virtual object (for example, an item that a character can equip) that the user who has acquired the benefit can use in the game (in other words, within the service), or it may be a virtual object that can be used by a user who has acquired the benefit (for example, an item that can be equipped by a character), or a virtual object that can be used in a real space It may be an electronic ticket or the like that can be exchanged with the user, or it may be a predetermined point owned by the user within the service. Furthermore, "based on having visited" may mean directly determining whether or not the person has visited and granting benefits, and specific actions that can be performed by visiting (for example, attending a live music concert). It may also be possible to provide a benefit when viewing (starting, finishing, or continuing for a predetermined period of time) is performed. According to such a configuration, it is possible to motivate the VR user to visit a position corresponding to a specific position in the virtual space 11.

なお、現実空間中の特定の位置で起きている所定の事象が反映された仮想空間11のビューの提供を受けられるVRユーザが限定されていてもよい。具体的には、記憶部311は、当該ビューの提供を受ける権利に関する情報(以下、「権利情報」という。)を記憶する権利情報記憶部として機能し、制御部310は、VRユーザが当該権利を有する場合に当該ビューをVRユーザに提供し、当該権利を有しない場合に当該ビューをVRユーザに提供しないこととしてもよい。また、当該権利は、例えば、VRユーザが対価を払うこと(例えば、現金の支払い、あるいはサービス内でのVRユーザの保有資産(例えば、仮想通貨等)の消費等)によりVRユーザに付与されるものであってもよい。具体的には、例えば、サービス内において、音楽ライブの視聴に係る権利を購入可能となっていてもよい。より具体的には、例えば、権利情報として、サービス内で購入可能な音楽ライブのチケットの有無に関する情報が記憶され、制御部310は、当該チケットを有するVRユーザが音楽ライブの視聴をすることができ、当該チケットを有しないVRユーザが音楽ライブの視聴をすることができないように制御してもよい。換言すると、権利情報として、当該ビューの提供を受ける権利に係るアイテム(例えば、チケット等)の保有に関する情報が記憶され、制御部310は、VRユーザが当該アイテムを有している場合に、当該ビューをVRユーザに提供してもよい。なお、当該権利(換言すると、当該アイテム)は、サービス内における所定のミッションの達成等により得られるようにしてもよい。 Note that the VR users who can receive a view of the virtual space 11 that reflects a predetermined event occurring at a specific position in the real space may be limited. Specifically, the storage unit 311 functions as a rights information storage unit that stores information regarding the right to receive the view (hereinafter referred to as “rights information”), and the control unit 310 functions as a rights information storage unit that stores information regarding the right to receive the view, and the control unit 310 If the user has the right, the view may be provided to the VR user, and if the user does not have the right, the view may not be provided to the VR user. In addition, the rights are granted to the VR user by, for example, paying a consideration (e.g., payment of cash, consumption of assets held by the VR user (e.g., virtual currency, etc.) within the service, etc.). It may be something. Specifically, for example, the right to view live music may be available for purchase within the service. More specifically, for example, information regarding the presence or absence of a live music ticket that can be purchased within the service is stored as rights information, and the control unit 310 controls whether a VR user who has the ticket can view the live music event. However, the control may be such that VR users who do not have the ticket cannot view the live music event. In other words, information regarding possession of an item (for example, a ticket, etc.) related to the right to receive the view is stored as the right information, and the control unit 310 controls the ownership of the item (for example, ticket, etc.) when the VR user owns the item. Views may be provided to VR users. Note that the right (in other words, the item) may be obtained by completing a predetermined mission within the service.

また、制御部310は、現実空間中の特定の位置で起きている所定の事象であって、VRユーザが複数のユーザの中から選択したMRユーザ6に関連する所定の事象が反映された仮想空間11のビューを当該VRユーザに提供してもよい。換言すると、VR側入力受付部916は、VRユーザによる、複数のユーザのうちのいずれのユーザに関連する所定の事象を反映させるか選択する操作(例えば、コントローラ280に対する操作)に係る入力を受け付け、制御部310は、当該操作により選択されたMRユーザ6に関連する所定の事象を当該VRユーザに提供されるビューに反映させてもよい。当該操作は、例えば、VRユーザが、自身のフレンドの中から、事象の反映を受けるユーザを選択する操作であってもよい。また、全てのフレンドに関連する所定の事象が反映されるようになっており、当該操作は、他のユーザをフレンドとして登録する操作等であってもよい。換言すると、本実施形態のサービスでは、VRユーザは、自身のフレンドに関連する所定の事象が反映された仮想空間11のビューの提供を受けることができるようになっていてもよい。換言すると、VRユーザは、複数のユーザのうちの自身に関連付けられたユーザに関連する所定の事象が反映された仮想空間11のビューの提供を受けることができるようになっていてもよい。また、例えば、制御部310は、VRユーザが選択した芸能人が現実空間中でライブを行っている場合に、当該ライブを当該VRユーザに提供される仮想空間11のビューに反映させるなどしてもよい。なお、特定のユーザに関連する事象が複数ある場合に、当該特定のユーザに関連する特定の事象を、反映を受ける事象として選択することが可能となっていてもよい。 The control unit 310 also controls a virtual virtual machine in which a predetermined event occurring at a specific position in the real space and related to the MR user 6 selected from a plurality of users by the VR user is reflected. A view of the space 11 may be provided to the VR user. In other words, the VR-side input reception unit 916 receives an input from a VR user regarding an operation (for example, an operation on the controller 280) for selecting which of a plurality of users a predetermined event related to a user is to be reflected. , the control unit 310 may reflect a predetermined event related to the MR user 6 selected by the operation on the view provided to the VR user. The operation may be, for example, an operation in which the VR user selects a user from among his or her own friends to whom the event will be reflected. Further, predetermined events related to all friends are reflected, and the operation may be an operation of registering another user as a friend. In other words, in the service of this embodiment, the VR user may be provided with a view of the virtual space 11 that reflects a predetermined event related to his or her friend. In other words, the VR user may be provided with a view of the virtual space 11 that reflects a predetermined event related to the user associated with the VR user among the plurality of users. For example, when a celebrity selected by a VR user is performing a live performance in the real space, the control unit 310 may reflect the live performance in the view of the virtual space 11 provided to the VR user. good. Note that when there are multiple events related to a specific user, it may be possible to select the specific event related to the specific user as the event to be reflected.

また、制御部310は、現実空間中の特定の位置で行われている所定の事象であって、VRユーザに設定された属性に対応する属性を有する所定の事象が反映された仮想空間11のビューを当該VRユーザに提供してもよい。具体的には、例えば、各VRユーザにはユーザの趣味、嗜好に係る属性、より具体的には「音楽好き」や「お笑い好き」(あるいは「特定の芸能人が好き」)等の属性が付されるようになっていてもよい。そして、制御部310は、例えば、「音楽好き」という属性が付されたVRユーザに対しては、「音楽」という属性が付された所定の事象を反映させ、「音楽好き」という属性が付されていないVRユーザに対しては、「音楽」という属性が付された所定の事象を反映させないようにしてもよい。また、制御部310は、例えば、「お笑い好き」という属性が付されたVRユーザに対しては、「お笑い」という属性が付された所定の事象を反映させ、「お笑い好き」という属性が付されていないVRユーザに対しては、「お笑い」という属性が付された所定の事象を反映させないようにしてもよい。なお、VRユーザに設定される属性は、各VRユーザが自身で設定すること(例えば、コントローラ280を介しての自身の好みの入力等)が可能となっていてもよく、AI(Artificial Intelligence)によって自動的に(例えば、サービス内でのユーザの行動等に応じて)設定されるなどしてもよい。 The control unit 310 also controls the virtual space 11 to reflect a predetermined event that is occurring at a specific position in the real space and has an attribute that corresponds to the attribute set for the VR user. The view may be provided to the VR user. Specifically, for example, each VR user has attributes related to the user's hobbies and preferences, more specifically, attributes such as "I like music" and "I like comedy" (or "I like a specific celebrity"). It may be possible to do so. Then, for example, the control unit 310 causes a predetermined event with the attribute "music" to be reflected on the VR user with the attribute "music lover", and the attribute "music lover" is added to the VR user. A predetermined event with the attribute "music" may not be reflected to VR users who have not. Further, for example, the control unit 310 may reflect a predetermined event with the attribute "comedy" on a VR user with the attribute "comedy lover", and add the attribute "comedy lover" to the VR user. A predetermined event with the attribute "comedy" may not be reflected to VR users who have not done so. Note that the attributes set for VR users may be set by each VR user themselves (for example, by inputting their own preferences via the controller 280), and AI (Artificial Intelligence) may be automatically set (for example, according to the user's actions within the service).

以上のように、制御部310は、現実空間中で行われる複数の事象のうち、VRユーザが選択した特定の事象(例えば、VRユーザが選択した特定のユーザに関連する事象や、VRユーザが設定した自身の属性に対応する属性を有する事象や、VRユーザが購入したチケットに係る事象等)を、仮想空間11に反映させてもよい。換言すると、制御部310は、現実空間中で行われる複数の事象のうち、VRユーザが選択していない事象を、仮想空間11に反映させなくてもよい。このように、選択していない事象を仮想空間11に反映させない場合に、ユーザの選択に関わらず反映される事象が存在してもよい。換言すると、「選択していない事象を仮想空間11に反映させない」とは、選択がされている場合に仮想空間11への反映がされる事象であって、選択がされていない場合に仮想空間11への反映がされない事象が少なくとも1つ存在すればよい。なお、事象の選択は、VRユーザが選択する特定の事象が発生(換言すると、開始)する前に行うことが可能となっていてもよく、当該特定の事象が発生した後(換言すると、行われている最中)に行うことが可能となっていてもよい。 As described above, the control unit 310 controls a specific event selected by the VR user (for example, an event related to a specific user selected by the VR user, an event related to a specific user selected by the VR user, An event having an attribute corresponding to the set own attribute, an event related to a ticket purchased by the VR user, etc.) may be reflected in the virtual space 11. In other words, the control unit 310 does not need to reflect in the virtual space 11 an event that is not selected by the VR user among a plurality of events that occur in the real space. In this way, when unselected events are not reflected in the virtual space 11, there may be events that are reflected regardless of the user's selection. In other words, "not reflecting an unselected event in the virtual space 11" means an event that is reflected in the virtual space 11 when a selection is made, and an event that is reflected in the virtual space 11 when a selection is not made. It is sufficient if there is at least one event that is not reflected in 11. Note that the event selection may be possible before the specific event selected by the VR user occurs (in other words, starts), or after the specific event occurs (in other words, the event starts). It may also be possible to do this while the process is being performed.

なお、第2の実施形態の情報処理システム100や、第3の実施の形態の情報処理システム100は、現実空間と仮想空間との双方を利用して行うゲームに適用することもできる。以下に具体例を示す。 Note that the information processing system 100 of the second embodiment and the information processing system 100 of the third embodiment can also be applied to games played using both real space and virtual space. A specific example is shown below.

(探索ゲーム)
例えば、情報処理システム100を、仮想空間11内を移動するキャラクタを現実世界で探すゲーム(以下、「探索ゲーム」という。)に適用してもよい。具体的には、例えば、まず、現実世界に存在するテーマパークを模した仮想空間11(換言すると、テーマパークに対応する仮想空間11)を用意する。また、VR側オブジェクト制御部920は、仮想空間11内を動き回るように所定のキャラクタ(以下、「探索対象キャラクタ」という。換言すると、探索対象オブジェクト。)を移動させる。探索対象キャラクタは、VRユーザによって操作されるもの(換言すると、VRユーザの操作に基づいて移動するもの)であってもよく、ユーザの操作を介さずに移動するものであってもよい。換言すると、探索対象キャラクタは、VRアバター25であってもよく、いわゆるノンプレイヤキャラクタであってもよい。また、探索対象キャラクタの外見は、例えば、テーマパークに属するキャラクタ(例えば、テーマパークを象徴するキャラクタ等)の外見等であってもよい。
(Exploration game)
For example, the information processing system 100 may be applied to a game in which a character moving within the virtual space 11 is searched for in the real world (hereinafter referred to as a "search game"). Specifically, for example, first, a virtual space 11 imitating a theme park existing in the real world (in other words, a virtual space 11 corresponding to a theme park) is prepared. Further, the VR-side object control unit 920 moves a predetermined character (hereinafter referred to as a "search target character"; in other words, a search target object) so as to move around within the virtual space 11. The search target character may be one that is operated by the VR user (in other words, it moves based on the VR user's operation), or it may be one that moves without the user's operation. In other words, the search target character may be the VR avatar 25 or may be a so-called non-player character. Further, the appearance of the search target character may be, for example, the appearance of a character belonging to a theme park (for example, a character symbolizing the theme park).

MRシステム400(換言すると、制御部510)は、仮想空間11中において探索対象キャラクタが存在する位置に対応する現実空間中の位置にMRユーザ6がいる場合に、ディスプレイ411に探索対象キャラクタを表示させる。換言すると、MRシステム400は、仮想空間11中において探索対象キャラクタが存在する位置に対応する現実空間中の位置にMRユーザ6がいない場合には、ディスプレイ411に探索対象キャラクタを表示させない。すなわち、本探索ゲームは、仮想空間11中を動き回る探索対象キャラクタを、現実空間中で探し回るゲームとなっている。 The MR system 400 (in other words, the control unit 510) displays the search target character on the display 411 when the MR user 6 is at a position in the real space that corresponds to the position where the search target character exists in the virtual space 11. let In other words, the MR system 400 does not display the search target character on the display 411 when the MR user 6 is not at the position in the real space that corresponds to the position where the search target character exists in the virtual space 11 . In other words, this search game is a game in which a character to be searched who moves around in the virtual space 11 is searched for in the real space.

また、MR側入力受付部816は、仮想空間11中において探索対象キャラクタが存在する位置に対応する現実空間中の位置にMRユーザ6がいる状況(換言すると、ディスプレイ411に探索対象キャラクタが表示されている状況)において、MRユーザ6による特定の操作に係る入力を受け付ける。当該特定の操作は、例えば、ディスプレイ411に映る探索対象キャラクタの写真を撮る操作(換言すると、画像を記憶する操作)であってもよい。換言すると、ここでの特定の操作とは、探索対象キャラクタを発見したことを示す情報の記憶に係る操作ともいえる。なお、ここでは、探索対象キャラクタを発見したことを示す情報は、探索対象キャラクタの写真となっているが、探索対象キャラクタを見つけることで立つフラグ等であってもよい。また、当該情報は、特定の操作を介さずに自動的に記憶されるものであってもよい。換言すると、探索対象キャラクタを発見したことを示す情報は、仮想空間11中において探索対象キャラクタが存在する位置に対応する現実空間中の位置にMRユーザ6が訪れたことに基づいて記憶されるものであればよい。すなわち、制御部510は、現実空間中の当該位置にMRユーザ6が訪れたことに基づいて、操作対象キャラクタを発見したことを示す情報を記憶部511に記憶させる。 In addition, the MR side input reception unit 816 receives information about the situation in which the MR user 6 is at a position in the real space corresponding to the position where the search target character is present in the virtual space 11 (in other words, the search target character is displayed on the display 411). (in a situation where the MR user 6 is in a situation where the MR user 6 is in a certain situation), the input related to a specific operation by the MR user 6 is accepted. The specific operation may be, for example, an operation of taking a photo of the search target character displayed on the display 411 (in other words, an operation of storing the image). In other words, the specific operation here can be said to be an operation related to storing information indicating that the search target character has been discovered. Here, the information indicating that the search target character has been found is a photograph of the search target character, but it may also be a flag that is set when the search target character is found. Further, the information may be automatically stored without any specific operation. In other words, the information indicating that the search target character has been found is stored based on the fact that the MR user 6 has visited a position in the real space that corresponds to the position where the search target character exists in the virtual space 11. That's fine. That is, the control unit 510 causes the storage unit 511 to store information indicating that the operation target character has been discovered, based on the fact that the MR user 6 has visited the relevant position in the real space.

また、制御部510は、現実空間中の当該位置にMRユーザ6が訪れたことに基づいて(換言すると、探索対象キャラクタを発見したことを示す情報が記憶されると)、MRユーザに特典を付与する。当該特典は、仮想空間11中において利用可能なアイテム等であってもよい。また、当該特典は、探索対象キャラクタを発見したことを示す電子的な証明書やトロフィー等であってもよい。また、当該特典は、現実空間中において(例えば、現実のテーマパークで)現実の物体(例えば、探索対象キャラクタのグッズ等)と交換可能な電子的チケット等であってもよい。 Furthermore, the control unit 510 provides a benefit to the MR user based on the fact that the MR user 6 has visited the relevant position in the real space (in other words, when information indicating that the search target character has been discovered is stored). Give. The benefit may be an item that can be used in the virtual space 11. Further, the benefit may be an electronic certificate or trophy indicating that the character to be searched for has been discovered. Further, the benefit may be an electronic ticket or the like that can be exchanged for a real object (for example, goods of a character to be searched for) in a real space (for example, at a real theme park).

また、本探索ゲームでは、VRユーザからMRユーザ6に対して、捜索を手助けする情報を送信可能となっていてもよい。なお、当該VRユーザは、捜索対象キャラクタを操作するユーザであってもよく、当該ユーザとは異なるユーザであってもよい。具体的には、例えば、当該VRユーザは、仮想空間11中において自身のVRアバター25を操作し、テーマパークを模した仮想空間11内で捜索対象キャラクタを捜索するようにする。また、VR側入力受付部916は、当該VRユーザによる、捜索対象キャラクタの目撃情報(例えば、目撃した場所に関する情報。換言すると、捜索を手助けする情報。)をMRユーザ6に対して送る操作(例えば、コントローラ280に対する操作)に係る入力を受け付ける。また、制御部510は、当該目撃情報を通信制御部850を介して受け取り、当該目撃情報に基づいて、捜索の手助けとなる出力を所定の出力手段に実行させる。具体的には、例えば、制御部510は、仮想空間11において捜索対象キャラクタが目撃された箇所を知らせる表示をディスプレイ411に表示させたり、捜索対象キャラクタが目撃された箇所を知らせる音をスピーカ416に出力させたりする。このような構成によれば、実際にテーマパークに行っているMRユーザ6と、実際にはテーマパークにいない(例えば、自宅等にいる)VRユーザとで協力してゲームを楽しむこと等が可能となる。 Furthermore, in this search game, the VR user may be able to send information to the MR user 6 to assist in the search. Note that the VR user may be a user who operates the search target character, or may be a user different from the user. Specifically, for example, the VR user operates his or her VR avatar 25 in the virtual space 11 to search for the search target character in the virtual space 11 imitating a theme park. Further, the VR-side input reception unit 916 performs an operation (by the VR user) of sending sighting information (for example, information about the place where the character was sighted; information that helps the search) of the character to be searched to the MR user 6 ( For example, input related to an operation on the controller 280 is accepted. Further, the control unit 510 receives the sighting information via the communication control unit 850, and causes a predetermined output means to perform an output that helps in the search based on the sighting information. Specifically, for example, the control unit 510 causes the display 411 to display a display notifying the location where the search target character has been sighted in the virtual space 11, or causes the speaker 416 to display a sound indicating the location where the search target character has been sighted. or output it. According to such a configuration, it is possible for the MR user 6 who is actually going to the theme park and the VR user who is not actually at the theme park (for example, at home, etc.) to cooperate and enjoy the game. becomes.

(サバイバルゲーム)
また、例えば、情報処理システム100を、仮想空間11内でプレイをするユーザと現実空間内でプレイするユーザとで対戦することが可能なサバイバルゲームに適用してもよい。具体的には、例えば、まず、現実空間側のユーザがプレイをする会場と、当該会場を模した仮想空間11(換言すると、会場を模した仮想空間11)を用意する。なお、当該会場は、いわゆるサバゲ―フィールドであってもよく、街中等の所定の領域であってもよい。また、現実空間側のユーザはMR装置410を装着し、仮想空間11側のユーザはVR装置210を装着する。
(survival game)
Further, for example, the information processing system 100 may be applied to a survival game in which a user playing in the virtual space 11 and a user playing in the real space can compete against each other. Specifically, for example, first, a venue where a user in the real space plays is prepared, and a virtual space 11 imitating the venue (in other words, a virtual space 11 imitating the venue). Note that the venue may be a so-called survival game field or a predetermined area such as a town. Further, the user on the real space side wears the MR device 410, and the user on the virtual space 11 side wears the VR device 210.

VRシステム200の制御部310は、VR側入力受付部916が受け付けたVRユーザからの入力に基づいて、当該VRユーザのVRアバター25を制御する。具体的には、制御部310は、VRユーザからの入力に基づいてVRアバター25を仮想空間11中で移動させる。 The control unit 310 of the VR system 200 controls the VR avatar 25 of the VR user based on the input from the VR user accepted by the VR side input reception unit 916. Specifically, the control unit 310 moves the VR avatar 25 in the virtual space 11 based on input from the VR user.

また、VRシステム200の制御部310は、MR側入力受付部816が受け付けたMRユーザ6からの入力を通信制御部950を介して受信し、MRアバター26を制御する。具体的には、制御部310は、MR装置410の備えるGPSセンサ(換言すると、位置検出手段)によって取得される位置情報(すなわち、現実空間におけるMRユーザ6の位置を示す位置情報)に基づいて、MRアバター26を仮想空間11中で移動させる。より具体的には、制御部310は、現実空間側の会場におけるMRユーザ6がいる位置に対応する仮想空間11中の位置にMRアバター26が位置するようにMRアバター26を移動させる。すなわち、VR装置210のディスプレイ211においては、複合現実空間21中におけるMRユーザ6がいる位置に対応する仮想空間11中(換言すると、会場内)の位置に、MR6ユーザが存在しているように見える表示が提供される。なお、MRユーザ6の位置をより正確に取得するために、MR装置410のセンサ417等を介してMR装置410の高さ情報等を取得してもよい。 Further, the control unit 310 of the VR system 200 receives the input from the MR user 6 accepted by the MR side input reception unit 816 via the communication control unit 950, and controls the MR avatar 26. Specifically, the control unit 310 uses the position information (that is, the position information indicating the position of the MR user 6 in real space) acquired by the GPS sensor (in other words, position detection means) included in the MR apparatus 410 to , moves the MR avatar 26 in the virtual space 11. More specifically, the control unit 310 moves the MR avatar 26 so that the MR avatar 26 is located at a position in the virtual space 11 that corresponds to the position where the MR user 6 is located in the venue on the real space side. That is, on the display 211 of the VR device 210, it appears that the MR user 6 is present at a position in the virtual space 11 (in other words, inside the venue) that corresponds to the position where the MR user 6 is in the mixed reality space 21. A visual display is provided. Note that in order to more accurately obtain the position of the MR user 6, height information of the MR device 410 and the like may be obtained via the sensor 417 of the MR device 410 and the like.

また、MRシステム400の制御部510は、仮想空間11中におけるVRアバター25が配置される位置に対応する複合現実空間21中の位置に、VRアバター25が位置するようにVRアバター25を移動させる。すなわち、MR装置410のディスプレイ411においては、仮想空間中におけるVRユーザがいる位置に対応する複合現実空間21中(換言すると、会場内)の位置に、VRユーザが存在しているように見える表示が提供される。 Further, the control unit 510 of the MR system 400 moves the VR avatar 25 so that the VR avatar 25 is located at a position in the mixed reality space 21 that corresponds to the position where the VR avatar 25 is placed in the virtual space 11. . That is, the display 411 of the MR device 410 displays a display that makes it appear that the VR user is present at a position in the mixed reality space 21 (in other words, inside the venue) that corresponds to the position where the VR user is in the virtual space. is provided.

また、VR側入力受付部916は、VRユーザによる、MRユーザ6(換言すると、MRアバター26)に対する攻撃に係る入力を受け付ける。また、MR側入力受付部816は、MRユーザ6による、VRユーザ(換言すると、VRアバター25)に対する攻撃に係る入力を受け付ける。なお、これらのVRユーザまたはMRユーザ6による、相手方への攻撃は、例えば、相手方に対して銃を撃つものであってもよく、当該攻撃に係る入力操作は、銃の形のコントローラ280,480等を介して行われるようになっていてもよい。 Further, the VR-side input reception unit 916 receives input related to an attack on the MR user 6 (in other words, the MR avatar 26) by the VR user. Further, the MR side input reception unit 816 receives input related to an attack on the VR user (in other words, the VR avatar 25) by the MR user 6. Note that the attack on the other party by these VR users or MR users 6 may be, for example, shooting a gun at the other party, and the input operation related to the attack is performed using the gun-shaped controllers 280, 480. It may also be done via a

また、制御部310は、VRユーザによるMRユーザ6に対する攻撃がMRユーザ6に当たったか否かを判定する。具体的には、制御部310は、例えば、VRアバター25の持つ銃がMRアバター26に向けられた状態でVRユーザによる入力操作がされ、当該銃から放たれた弾がMRアバター26に直撃した場合に、VRユーザによる攻撃がMRユーザ6に当たったと判定する。また、制御部310は、MRユーザ6によるVRユーザに対する攻撃がVRユーザに当たったか否かを判定する。具体的には、制御部310は、例えば、MRアバター26の持つ銃がVRアバター25に向けられた状態でMRユーザ6による入力操作がされ、当該銃から放たれた弾がVRアバター25に直撃した場合に、MRユーザ6による攻撃がVRユーザに当たったと判定する。ここで、MRアバター26の持つ銃の向く方向は、例えば、MRユーザ6の持つコントローラ480の向きと連動しており、MRアバター26の銃の照準は、MRユーザ6が複合現実空間21中においてコントローラ480の照準を合わせている位置と対応する仮想空間11中の位置に合わせられるようになっている。すなわち、制御部310は、MRユーザ6が複合現実空間21中において銃の形のコントローラ480でVRアバター25に対して照準を合わせた状態で入力操作を行った場合に、MRユーザ6による攻撃がVRユーザに当たったと判定する。なお、VRユーザによるMRユーザ6に対する攻撃については、通常のシューティングゲームと同様とすることができる。なお、MRユーザ6によるVRユーザへの攻撃あるいはVRユーザによるMRユーザ6への攻撃についての判定の一部あるいは全部が、制御部510または制御部610等によって行われてもよい。換言すると、MRユーザ6によるVRユーザへの攻撃についての判定を行う判定部や、VRユーザによるMRユーザ6への攻撃についての判定を行う判定部は、制御部310、制御部510および制御部610のいずれによって実現されてもよい。 Further, the control unit 310 determines whether the attack on the MR user 6 by the VR user hits the MR user 6 or not. Specifically, the control unit 310 controls, for example, when an input operation is performed by the VR user while a gun held by the VR avatar 25 is pointed at the MR avatar 26, and a bullet fired from the gun directly hits the MR avatar 26. In this case, it is determined that the attack by the VR user has hit the MR user 6. Furthermore, the control unit 310 determines whether the attack on the VR user by the MR user 6 hits the VR user. Specifically, the control unit 310 controls, for example, when an input operation is performed by the MR user 6 while a gun held by the MR avatar 26 is pointed at the VR avatar 25, and a bullet fired from the gun directly hits the VR avatar 25. In this case, it is determined that the attack by the MR user 6 has hit the VR user. Here, the direction in which the gun held by the MR avatar 26 faces is linked to, for example, the direction of the controller 480 held by the MR user 6, and the aiming direction of the gun held by the MR avatar 26 is The controller 480 can be aimed at a position in the virtual space 11 that corresponds to the position the controller 480 is aiming at. That is, when the MR user 6 performs an input operation while aiming the gun-shaped controller 480 at the VR avatar 25 in the mixed reality space 21, the control unit 310 determines whether an attack by the MR user 6 occurs. It is determined that it has hit a VR user. Note that the attack on the MR user 6 by the VR user can be the same as in a normal shooting game. Note that part or all of the determination regarding the attack on the VR user by the MR user 6 or the attack on the MR user 6 by the VR user may be performed by the control unit 510, the control unit 610, or the like. In other words, the determination unit that determines whether the MR user 6 attacks the VR user 6 or the determination unit that determines whether the VR user attacks the MR user 6 are the control unit 310, the control unit 510, and the control unit 610. It may be realized by any of the following.

なお、ここでは、VRユーザとMRユーザ6とが敵として戦う場合を例に説明したが、当該サバイバルゲーム(換言すると、対戦ゲーム)では、VRユーザとMRユーザ6とが協力してプレイすることが可能となっていてもよい。すなわち、例えば、複数のユーザで構成される複数のチーム(例えば、2つのチーム)で対戦することが可能なサバイバルゲームとした場合に、当該複数のチームのうちの1のチームがVRユーザ(換言すると、仮想空間11側のユーザ)のみで構成され、他の1のチームがMRユーザ6(換言すると、現実空間側のユーザ)のみで構成されてもよい。また、1のチームにVRユーザとMRユーザ6との両方が含まれ得るようになっていてもよい。 Although the case where the VR user and the MR user 6 fight as enemies has been explained here as an example, in the survival game (in other words, the battle game), the VR user and the MR user 6 play cooperatively. may be possible. That is, for example, in the case of a survival game in which multiple teams (for example, two teams) made up of multiple users can compete against each other, one of the multiple teams is a VR user (in other words, Then, the other team may be composed only of the MR users 6 (in other words, the users of the real space). Furthermore, one team may include both VR users and MR users 6.

(脱出ゲーム)
また、例えば、情報処理システム100を、現実空間側のユーザと仮想空間11側のユーザとが協力してプレイする脱出ゲーム(換言すると、謎解きゲーム)に適用してもよい。具体的には、例えば、まず、現実空間側のユーザがプレイをする会場と、当該会場を模した仮想空間11(換言すると、会場を模した仮想空間11)を用意する。なお、当該会場は、街中等の所定の領域であってもよく、特定の施設等であってもよい。また、現実空間側のユーザはMR装置410を装着し、仮想空間11側のユーザはVR装置210を装着する。
(Escape Game)
Further, for example, the information processing system 100 may be applied to an escape game (in other words, a puzzle solving game) played cooperatively by a user in the real space and a user in the virtual space 11. Specifically, for example, first, a venue where a user in the real space plays is prepared, and a virtual space 11 imitating the venue (in other words, a virtual space 11 imitating the venue). Note that the venue may be a predetermined area such as a town, or may be a specific facility. Further, the user on the real space side wears the MR device 410, and the user on the virtual space 11 side wears the VR device 210.

MR装置410を装着したユーザとVR装置210を装着したユーザとは、設定されたミッションを協力して達成する。具体的には、MR装置410とVR装置210とは、それぞれ対応する位置にミッションに係る仮想オブジェクトを表示させる。当該仮想オブジェクトは、例えば、VRユーザとMRユーザ6とが協力して行うアクションの受付に係るオブジェクトであってもよい。具体的には、VRユーザがVR装置210に表示される当該仮想オブジェクトとしての所定の装置に対して所定のアクション(例えば、手をかざす操作)を行い、MRユーザ6がMR装置410に表示される当該仮想オブジェクトとしての所定の装置に対して所定のアクション(例えば、手をかざす操作。なお、当該アクションはVRユーザが行うアクションと同様であってもよく、異なっていてもよい。)を行うと、当該所定の装置が起動する(換言すると、ゲーム(イベント)が進行する)等のようになっていてもよい。また、当該仮想オブジェクトは、例えば、宝箱等のVRユーザまたはMRユーザ6の少なくとも一方が取得可能なアイテムに関するものであってもよい。また、当該仮想オブジェクトは、謎解きに関する記載を含む(例えば、謎についての文章や、謎解きのヒントなどが記された)オブジェクト等であってもよい。 The user wearing the MR device 410 and the user wearing the VR device 210 work together to accomplish a set mission. Specifically, the MR device 410 and the VR device 210 display virtual objects related to the mission at corresponding positions. The virtual object may be, for example, an object related to the reception of an action performed by the VR user and the MR user 6 in cooperation. Specifically, the VR user performs a predetermined action (for example, an operation of waving his hand) on a predetermined device as the virtual object displayed on the VR device 210, and the MR user 6 performs a predetermined action on the predetermined device as the virtual object displayed on the VR device 210. perform a predetermined action (for example, an operation of waving one's hand over the predetermined device as the virtual object; the action may be the same as or different from the action performed by the VR user). Then, the predetermined device starts up (in other words, the game (event) progresses). Further, the virtual object may be related to an item, such as a treasure chest, that can be obtained by at least one of the VR user and the MR user 6, for example. Further, the virtual object may be an object that includes a description related to solving a mystery (for example, a text about the mystery or a hint for solving the mystery is written).

また、このような情報処理システム100を用いて実行されるゲームであって、MRユーザ6とVRユーザとが協力してプレイするゲーム等において、MRユーザ6とVRユーザとの一方がゲームの進行に係る第1の行動を行ったことを条件として、他方によるゲームの進行に係る第2の行動が可能となるようにしてもよい。この場合に、例えば、第1の行動は、当該一方のユーザしか行うことができず、当該他方のユーザが行うことはできない行動とする。また、例えば、第2の行動は、当該他方のユーザしか行うことができず、当該一方のユーザが行うことはできない行動とする。具体的には、例えば、MRシステム400(換言すると、制御部510)が、MRユーザ6が現実空間において特定の場所を訪れたことを検出すると(例えば、当該特定の場所を訪れたことを示すGPS情報がMR側入力受付部816に入力されると)、VRシステム200(換言すると、制御部310)が、VRユーザによる第2の行動に係る入力を受け付けるなどしていてもよい。換言すると、VRユーザによる第2の行動は、MRユーザ6が現実空間において特定の場所を訪れたことに基づいて実行可能となる行動であってもよい。また、例えば、VRシステム200(換言すると、制御部310)が、VRユーザが仮想空間11において特定の場所を訪れたことを検出すると、MRシステム400(換言すると、制御部510)が、MRユーザ6による第2の行動に係る入力を受け付けるなどしてもよい。換言すると、MRユーザ6による第2の行動は、VRユーザが仮想空間11において特定の場所を訪れたことに基づいて実行可能となる行動であってもよい。また、例えば、MRユーザ6が現実空間においてMR装置410としてのスマートフォンのカメラを現実空間の特定の場所に向けている間だけVR装置210がゲームの進行に係る所定の表示(例えば、謎解きに係るヒントの表示など)をディスプレイ211に表示させるなどしてもよい。また、仮想空間11を複合現実空間21の過去を表すものとし、VRシステム200は仮想空間11(換言すると、過去)でのVRユーザによる第1の行動としての所定の行動(例えば、仮想空間11中の特定の位置にアイテムを配置する行動)に係る入力を受け付けてもよい。そして、仮想空間11(換言すると、過去)でVRユーザが第1の行動を行うと、MRシステム400は現実空間(換言すると、現在)でのMRユーザ6による第2の行動としての所定の行動(例えば、当該特定の位置に対応する複合現実空間21中の位置に行き、当該アイテムを発見する行動)に係る入力を受け付け、当該入力に基づいてゲーム(換言すると、イベント)を進行させることが可能となるように構成してもよい。 Furthermore, in a game that is executed using such an information processing system 100 and is played cooperatively between the MR user 6 and the VR user, one of the MR user 6 and the VR user controls the progress of the game. The second action related to the progress of the game may be made possible by the other player on the condition that the first action related to the first action has been performed. In this case, for example, the first action is an action that can only be performed by the one user and cannot be performed by the other user. Further, for example, the second action is an action that can only be performed by the other user and cannot be performed by the one user. Specifically, for example, when the MR system 400 (in other words, the control unit 510) detects that the MR user 6 has visited a specific place in real space (for example, the MR system 400 (in other words, the control unit 510) detects that the MR user 6 has visited a specific place, When the GPS information is input to the MR side input reception unit 816), the VR system 200 (in other words, the control unit 310) may accept an input related to the second action by the VR user. In other words, the second action by the VR user may be an action that becomes executable based on the MR user 6 visiting a specific place in real space. Further, for example, when the VR system 200 (in other words, the control unit 310) detects that the VR user has visited a specific place in the virtual space 11, the MR system 400 (in other words, the control unit 510) detects that the MR user For example, an input related to the second action in step 6 may be accepted. In other words, the second action by the MR user 6 may be an action that becomes executable based on the VR user visiting a specific place in the virtual space 11. Further, for example, only while the MR user 6 is pointing the camera of the smartphone serving as the MR device 410 at a specific location in the real space, the VR device 210 displays a predetermined display related to the progress of the game (for example, when solving puzzles). Such a hint may be displayed on the display 211. Further, the virtual space 11 represents the past of the mixed reality space 21, and the VR system 200 performs a predetermined action (for example, It is also possible to accept an input related to an action of placing an item at a specific position inside. Then, when the VR user performs the first action in the virtual space 11 (in other words, in the past), the MR system 400 performs a predetermined action as the second action by the MR user 6 in the real space (in other words, in the present). (For example, an action of going to a location in the mixed reality space 21 corresponding to the specific location and discovering the item) and proceeding with the game (in other words, an event) based on the input. The configuration may be such that this is possible.

なお、本発明は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変形して実施できる。本発明はその発明の範囲内において、各構成要素の自由な組み合わせ、任意の構成要素の変形、または任意の構成要素の省略等が可能である。また、本明細書において説明した処理の流れはあくまで一例であり、各処理の順序や構成は異なるものであってもよい。 Note that the present invention is not limited to the embodiments described above, and can be implemented with various modifications without departing from the gist thereof. Within the scope of the present invention, each component can be freely combined, any component can be modified, or any component can be omitted. Further, the process flow described in this specification is merely an example, and the order and configuration of each process may be different.

<付記>
以上の実施形態で説明した事項は、以下の付記のようにも記載され得る。
<Additional notes>
The matters described in the above embodiments may also be described as in the following additional notes.

(付記1)
仮想空間のビューである第1のビューを第1ユーザに提供する第1制御手段(例えば、制御部310)と、
現実空間に仮想オブジェクトが配置された複合現実空間のビューである第2のビューを第2ユーザに提供する第2制御手段(例えば、制御部510)と、
前記現実空間における前記第2ユーザの現在の位置を示す位置情報を受け付ける入力受付手段(例えば、MR側入力受付部816)と、
前記現実空間と前記仮想空間との位置の対応関係を示す情報を記憶する対応関係記憶手段(例えば、記憶部611)と、を備え、
前記第1制御手段は、前記仮想空間中の特定の位置で行われている所定の事象に関する前記第1のビューを前記第1ユーザに提供し、
前記第2制御手段は、
前記位置情報に応じた前記第2のビューを前記第2ユーザに提供し、
前記位置情報が前記第2ユーザが前記特定の位置に対応する位置にいることを示すときに、前記仮想空間中の前記特定の位置で行われている前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
情報処理システム。
このような構成によれば、第2ユーザが現実空間における所定の位置にいる場合に、当該所定の位置に対応する仮想空間中の特定の位置で行われている所定の事象が反映された複合現実空間のビューを第2ユーザに提供することが可能となる。したがって、仮想空間中の特定の位置で行われている事象を、現実空間中の当該特定の位置に対応する位置でも見られるようにすることができる。したがって、仮想空間の用途の幅が広がる。
(Additional note 1)
a first control means (e.g., control unit 310) that provides a first user with a first view that is a view of a virtual space;
a second control means (for example, control unit 510) that provides a second user with a second view that is a view of a mixed reality space in which virtual objects are placed in the real space;
input receiving means (for example, MR side input receiving unit 816) that receives position information indicating the current position of the second user in the real space;
Correspondence storage means (for example, storage unit 611) for storing information indicating the correspondence between the positions of the real space and the virtual space,
The first control means provides the first user with the first view regarding a predetermined event occurring at a specific position in the virtual space;
The second control means
providing the second user with the second view according to the location information;
When the location information indicates that the second user is at a location corresponding to the specific location, the second user is configured to reflect the predetermined event taking place at the specific location in the virtual space. An information processing system that provides the second user with a view of.
According to such a configuration, when the second user is at a predetermined position in the real space, a composite image that reflects a predetermined event occurring at a specific position in the virtual space corresponding to the predetermined position is displayed. It becomes possible to provide a view of the real space to the second user. Therefore, an event occurring at a specific location in virtual space can be viewed at a location corresponding to the specific location in real space. Therefore, the range of uses of virtual space is expanded.

(付記2)
前記第1制御手段は、前記第1ユーザの操作に基づいて前記所定の事象に関連する仮想オブジェクトを前記仮想空間中で動かし、
前記第2制御手段は、前記第1ユーザの操作によって動かされている仮想オブジェクトの動きを前記第2のビューに反映させ、前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
付記1に記載の情報処理システム。
このような構成によれば、第2ユーザは、第1ユーザが仮想空間中で動かす仮想オブジェクトが動いている様子を、現実空間において見ることが可能となる。したがって、ユーザにこれまでにない体験を提供することが可能となり、仮想空間の用途の幅が広がる。
(Additional note 2)
The first control means moves a virtual object related to the predetermined event in the virtual space based on the first user's operation;
The second control means causes the second view to reflect the movement of the virtual object being moved by the first user's operation, and causes the second view in which the predetermined event is reflected to be displayed by the second user. The information processing system described in Appendix 1.
According to such a configuration, the second user can see in the real space how the virtual object that the first user moves in the virtual space is moving. Therefore, it becomes possible to provide the user with an unprecedented experience, and the range of uses of virtual space is expanded.

(付記3)
前記第2ユーザが、前記現実空間において、前記特定の位置に対応する位置を訪れたことに基づいて、前記第2ユーザに特典を付与する特典付与手段(例えば、制御部510)を備える
付記1に記載の情報処理システム。
このような構成によれば、仮想空間中で行われている所定の事象が反映される現実空間中の位置を訪れた第2ユーザに対して特典を付与することができる。したがって、第2ユーザに対して、現実空間において、特定の位置に対応する位置を訪れる動機付けを与えることができ、仮想空間の用途の幅が広がる。
(Additional note 3)
Supplementary Note 1: The apparatus further includes a benefit granting means (for example, a control unit 510) that grants a benefit to the second user based on the fact that the second user has visited a position corresponding to the specific position in the real space. The information processing system described in .
According to such a configuration, a benefit can be given to the second user who visits a position in the real space where a predetermined event occurring in the virtual space is reflected. Therefore, the second user can be motivated to visit a position corresponding to a specific position in the real space, and the range of uses of the virtual space is expanded.

(付記4)
前記第2のビューに反映される前記所定の事象は、前記仮想空間中で行われる複数の事象の中から前記第2ユーザが選択した事象である
付記1~3のいずれか1つに記載の情報処理システム。
このような構成によれば、反映させる事象を、複数の事象の中から第2ユーザが自身で選択することが可能となる。したがって、第2ユーザに提供される複合現実空間において、反映される事象が多くなり過ぎて処理が重くなり過ぎたり、第2ユーザの視界が煩雑となってしまったりすることを防止すること等ができる。
(Additional note 4)
The predetermined event reflected in the second view is an event selected by the second user from among a plurality of events that take place in the virtual space. Information processing system.
According to such a configuration, it becomes possible for the second user to select the event to be reflected from among a plurality of events. Therefore, in the mixed reality space provided to the second user, it is possible to prevent the processing from becoming too heavy due to an increase in the number of reflected events, or from cluttering the second user's field of view. can.

(付記5)
前記所定の事象が反映された前記第2のビューの提供を受ける権利に関する情報を記憶する権利情報記憶手段(例えば、記憶部511)を備え、
前記権利は、対価を払うことで前記第2ユーザに付与され、
前記第2制御手段は、前記第2ユーザが前記権利を有する場合に、前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
付記1~3のいずれか1つに記載の情報処理システム。
このような構成によれば、現実空間において所定の事象を見ようとする第2ユーザに対して対価を求めることが可能となる。したがって、仮想空間の用途の幅が広がる。
(Appendix 5)
comprising a rights information storage means (for example, a storage unit 511) that stores information regarding the right to receive the provision of the second view in which the predetermined event is reflected;
The right is granted to the second user by paying a consideration,
In any one of Supplementary Notes 1 to 3, the second control means provides the second user with the second view in which the predetermined event is reflected when the second user has the right. The information processing system described.
According to such a configuration, it is possible to demand compensation from the second user who wishes to view a predetermined event in real space. Therefore, the range of uses of virtual space is expanded.

(付記6)
前記第2制御手段は、前記第2ユーザが複数のユーザの中から選択した前記第1ユーザに関連する前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
付記1~3のいずれか1つに記載の情報処理システム。
このような構成によれば、第2ユーザは、情報処理システムを利用する複数のユーザのうちのいずれのユーザに関連する事象の反映を受けるかを選択することが可能となる。したがって、仮想空間の用途の幅が広がる。
(Appendix 6)
The second control means provides the second user with the second view in which the predetermined event related to the first user selected by the second user from a plurality of users is reflected. The information processing system according to any one of ~3.
According to such a configuration, the second user can select which user from among the plurality of users who use the information processing system will receive the reflection of an event. Therefore, the range of uses of virtual space is expanded.

(付記7)
前記第2制御手段は、前記第2ユーザに設定された属性に対応する属性を有する前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
付記1~3のいずれか1つに記載の情報処理システム。
このような構成によれば、第2ユーザの属性に応じて、そのユーザに適した事象の反映されたビューを提供することが可能となる。したがって、仮想空間の用途の幅が広がる。
(Appendix 7)
The second control means provides the second user with the second view that reflects the predetermined event and has an attribute that corresponds to the attribute set for the second user. The information processing system described in item 1.
According to such a configuration, it is possible to provide a view that reflects events suitable for the second user, depending on the attributes of the second user. Therefore, the range of uses of virtual space is expanded.

(付記8)
仮想空間のビューである第1のビューを第1ユーザに提供する第1制御手段(例えば、制御部310)と、
現実空間に仮想オブジェクトが配置された複合現実空間のビューである第2のビューを第2ユーザに提供する第2制御手段(例えば、制御部510)と、
前記現実空間における前記第2ユーザの現在の位置を示す位置情報を受け付ける入力受付手段(例えば、MR側入力受付部816)と、
前記現実空間と前記仮想空間との位置の対応関係を示す情報を記憶する対応関係記憶手段(例えば、記憶部611)と、を備える情報処理システムのコンピュータを、前記第2制御手段として機能させるプログラムであって、
前記第1制御手段は、前記仮想空間中の特定の位置で行われている所定の事象に関する前記第1のビューを前記第1ユーザに提供し、
前記第2制御手段は、
前記位置情報に応じた前記第2のビューを前記第2ユーザに提供し、
前記位置情報が前記第2ユーザが前記特定の位置に対応する位置にいることを示すときに、前記仮想空間中の前記特定の位置で行われている前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
プログラム。
このような構成によれば、付記1に記載の情報処理システムと同様の作用効果を奏することができる。
(Appendix 8)
a first control means (e.g., control unit 310) that provides a first user with a first view that is a view of a virtual space;
a second control means (for example, control unit 510) that provides a second user with a second view that is a view of a mixed reality space in which virtual objects are placed in the real space;
input receiving means (for example, MR side input receiving unit 816) that receives position information indicating the current position of the second user in the real space;
A program for causing a computer of an information processing system to function as the second control means, including a correspondence storage unit (for example, a storage unit 611) that stores information indicating a correspondence relationship between positions of the real space and the virtual space. And,
The first control means provides the first user with the first view regarding a predetermined event occurring at a specific position in the virtual space;
The second control means
providing the second user with the second view according to the location information;
When the location information indicates that the second user is at a location corresponding to the specific location, the second user is configured to reflect the predetermined event taking place at the specific location in the virtual space. A program that provides the second user with a view of.
According to such a configuration, the same effects as the information processing system described in Supplementary Note 1 can be achieved.

11 仮想空間、21 複合現実空間、25 VRアバター、26 MRアバター、30 仮想模型、35 黒板、36 仮想黒板、50 事象関連オブジェクト、100 情報処理システム、200 VRシステム、210 VR装置、211 ディスプレイ、212 注視センサ、213 第1カメラ、214 第2カメラ、215 マイク、216 スピーカ、217 センサ、260 検出装置、270 ディスプレイ、280 コントローラ、286 センサ、300 コンピュータ、301 プロセッサ、302 メモリ、303 ストレージ、304 入出力インターフェース、305 通信インターフェース、310 制御部、311 記憶部、400 MRシステム、410 MR装置、411 ディスプレイ、412 注視センサ、413 カメラ、415 マイク、416 スピーカ、417 センサ、460 検出装置、470 ディスプレイ、480 コントローラ、486 センサ、500 コンピュータ、501 プロセッサ、502 メモリ、503 ストレージ、504 入出力インターフェース、505 通信インターフェース、510 制御部、511 記憶部、600 サーバ、601 プロセッサ、602 メモリ、603 ストレージ、604 入出力インターフェース、605 通信インターフェース、610 制御部、611 記憶部、700 外部機器、810 仮想空間生成部、812 座標定義部、816 MR側入力受付部、818 ユーザ情報取得部、820 MR側オブジェクト制御部、840 表示制御部、845 音制御部、850 通信制御部、916 VR側入力受付部、920 VR側オブジェクト制御部、930 仮想カメラ制御部、940 表示制御部、945 音制御部、950 通信制御部 11 virtual space, 21 mixed reality space, 25 VR avatar, 26 MR avatar, 30 virtual model, 35 blackboard, 36 virtual blackboard, 50 event-related object, 100 information processing system, 200 VR system, 210 VR device, 211 display, 212 gaze sensor, 213 first camera, 214 second camera, 215 microphone, 216 speaker, 217 sensor, 260 detection device, 270 display, 280 controller, 286 sensor, 300 computer, 301 processor, 302 memory, 303 storage, 304 input/output interface, 305 communication interface, 310 control unit, 311 storage unit, 400 MR system, 410 MR device, 411 display, 412 gaze sensor, 413 camera, 415 microphone, 416 speaker, 417 sensor, 460 detection device, 470 display, 480 controller , 486 sensor, 500 computer, 501 processor, 502 memory, 503 storage, 504 input/output interface, 505 communication interface, 510 control unit, 511 storage unit, 600 server, 601 processor, 602 memory, 603 storage, 604 input/output interface, 605 communication interface, 610 control unit, 611 storage unit, 700 external device, 810 virtual space generation unit, 812 coordinate definition unit, 816 MR side input reception unit, 818 user information acquisition unit, 820 MR side object control unit, 840 display control part, 845 sound control unit, 850 communication control unit, 916 VR side input reception unit, 920 VR side object control unit, 930 virtual camera control unit, 940 display control unit, 945 sound control unit, 950 communication control unit

Claims (7)

仮想空間のビューである第1のビューを第1ユーザに提供する第1制御手段と、
現実空間に仮想オブジェクトが配置された複合現実空間のビューである第2のビューを第2ユーザに提供する第2制御手段と、
前記現実空間における前記第2ユーザの現在の位置を示す位置情報を受け付ける入力受付手段と、
前記現実空間と前記仮想空間との位置の対応関係を示す情報を記憶する対応関係記憶手段と、を備え、
前記第1制御手段は、前記仮想空間中の特定の位置で行われている所定の事象に関する前記第1のビューを前記第1ユーザに提供し、
前記第2制御手段は、
前記位置情報に応じた前記第2のビューを前記第2ユーザに提供し、
前記位置情報が前記第2ユーザが前記特定の位置に対応する位置にいることを示すときに、前記仮想空間中の前記特定の位置で行われている前記所定の事象であって、前記第2ユーザが複数のユーザの中から選択した前記第1ユーザに関連する前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
情報処理システム。
a first control means for providing a first user with a first view that is a view of a virtual space;
a second control means for providing a second user with a second view that is a view of a mixed reality space in which virtual objects are placed in the real space;
input receiving means for receiving position information indicating the current position of the second user in the real space;
Correspondence storage means for storing information indicating a correspondence between the positions of the real space and the virtual space,
The first control means provides the first user with the first view regarding a predetermined event occurring at a specific position in the virtual space;
The second control means
providing the second user with the second view according to the location information;
the predetermined event occurring at the specific location in the virtual space when the location information indicates that the second user is at a location corresponding to the specific location; An information processing system that provides the second user with the second view in which the predetermined event related to the first user selected by the user from among a plurality of users is reflected.
前記第1制御手段は、前記第1ユーザの操作に基づいて前記所定の事象に関連する仮想オブジェクトを前記仮想空間中で動かし、
前記第2制御手段は、前記第1ユーザの操作によって動かされている仮想オブジェクトの動きを前記第2のビューに反映させ、前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
請求項1に記載の情報処理システム。
The first control means moves a virtual object related to the predetermined event in the virtual space based on the first user's operation;
The second control means causes the second view to reflect the movement of the virtual object being moved by the first user's operation, and causes the second view in which the predetermined event is reflected to be displayed by the second user. The information processing system according to claim 1 .
前記第2ユーザが、前記現実空間において、前記特定の位置に対応する位置を訪れたことに基づいて、前記第2ユーザに特典を付与する特典付与手段を備える
請求項1に記載の情報処理システム。
The information processing system according to claim 1, further comprising a privilege granting unit that grants a privilege to the second user based on the second user visiting a position corresponding to the specific position in the real space. .
前記第2のビューに反映される前記所定の事象は、前記仮想空間中で行われる複数の事象の中から前記第2ユーザが選択した事象である
請求項1~3のいずれか1項に記載の情報処理システム。
The predetermined event reflected in the second view is an event selected by the second user from among a plurality of events that take place in the virtual space. information processing system.
前記所定の事象が反映された前記第2のビューの提供を受ける権利に関する情報を記憶する権利情報記憶手段を備え、
前記権利は、対価を払うことで前記第2ユーザに付与され、
前記第2制御手段は、前記第2ユーザが前記権利を有する場合に、前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
請求項1~3のいずれか1項に記載の情報処理システム。
comprising a rights information storage means for storing information regarding the right to receive the provision of the second view in which the predetermined event is reflected;
The right is granted to the second user by paying a consideration,
4. The second control means, when the second user has the right, provides the second view in which the predetermined event is reflected to the second user. The information processing system described in .
前記第2制御手段は、前記第2ユーザに設定された属性に対応する属性を有する前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
請求項1~3のいずれか1項に記載の情報処理システム。
The second control means provides the second user with the second view in which the predetermined event is reflected and has an attribute corresponding to an attribute set for the second user. The information processing system according to item 1.
仮想空間のビューである第1のビューを第1ユーザに提供する第1制御手段と、
現実空間に仮想オブジェクトが配置された複合現実空間のビューである第2のビューを第2ユーザに提供する第2制御手段と、
前記現実空間における前記第2ユーザの現在の位置を示す位置情報を受け付ける入力受付手段と、
前記現実空間と前記仮想空間との位置の対応関係を示す情報を記憶する対応関係記憶手段と、を備える情報処理システムのコンピュータを、前記第2制御手段として機能させるプログラムであって、
前記第1制御手段は、前記仮想空間中の特定の位置で行われている所定の事象に関する前記第1のビューを前記第1ユーザに提供し、
前記第2制御手段は、
前記位置情報に応じた前記第2のビューを前記第2ユーザに提供し、
前記位置情報が前記第2ユーザが前記特定の位置に対応する位置にいることを示すときに、前記仮想空間中の前記特定の位置で行われている前記所定の事象であって、前記第2ユーザが複数のユーザの中から選択した前記第1ユーザに関連する前記所定の事象が反映された前記第2のビューを前記第2ユーザに提供する
プログラム。
a first control means for providing a first user with a first view that is a view of a virtual space;
a second control means for providing a second user with a second view that is a view of a mixed reality space in which virtual objects are placed in the real space;
input receiving means for receiving position information indicating the current position of the second user in the real space;
A program for causing a computer of an information processing system to function as the second control means, including a correspondence storage means for storing information indicating a correspondence between positions of the real space and the virtual space, the program comprising:
The first control means provides the first user with the first view regarding a predetermined event occurring at a specific position in the virtual space;
The second control means
providing the second user with the second view according to the location information;
the predetermined event occurring at the specific location in the virtual space when the location information indicates that the second user is at a location corresponding to the specific location; The program provides the second user with the second view in which the predetermined event related to the first user selected by the user from among a plurality of users is reflected.
JP2023014523A 2023-02-02 2023-02-02 Information processing systems and programs Active JP7354466B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023014523A JP7354466B1 (en) 2023-02-02 2023-02-02 Information processing systems and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023014523A JP7354466B1 (en) 2023-02-02 2023-02-02 Information processing systems and programs

Publications (1)

Publication Number Publication Date
JP7354466B1 true JP7354466B1 (en) 2023-10-02

Family

ID=88198176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023014523A Active JP7354466B1 (en) 2023-02-02 2023-02-02 Information processing systems and programs

Country Status (1)

Country Link
JP (1) JP7354466B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151917A (en) * 2016-02-26 2017-08-31 株式会社セガゲームス Program and eye wear
WO2019130864A1 (en) * 2017-12-28 2019-07-04 ソニー株式会社 Information processing device, information processing method, and program
JP2019212236A (en) * 2018-06-08 2019-12-12 株式会社セガゲームス Terminal device and program
JP2021082310A (en) * 2013-03-11 2021-05-27 マジック リープ, インコーポレイテッドMagic Leap,Inc. Systems and methods for augmented reality and virtual reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021082310A (en) * 2013-03-11 2021-05-27 マジック リープ, インコーポレイテッドMagic Leap,Inc. Systems and methods for augmented reality and virtual reality
JP2017151917A (en) * 2016-02-26 2017-08-31 株式会社セガゲームス Program and eye wear
WO2019130864A1 (en) * 2017-12-28 2019-07-04 ソニー株式会社 Information processing device, information processing method, and program
JP2019212236A (en) * 2018-06-08 2019-12-12 株式会社セガゲームス Terminal device and program

Similar Documents

Publication Publication Date Title
JP6276882B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
CN103635891B (en) The world is presented in a large amount of digital remotes simultaneously
JP6263252B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
CN109643161A (en) Dynamic enters and leaves the reality environment browsed by different HMD users
JP2022549853A (en) Individual visibility in shared space
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
JP6321263B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP7160669B2 (en) Program, Information Processing Apparatus, and Method
JP6785325B2 (en) Game programs, methods, and information processing equipment
JP2019032844A (en) Information processing method, device, and program for causing computer to execute the method
JP2018125003A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP2020179184A (en) Game program, method, and information processor
JP7354466B1 (en) Information processing systems and programs
JP7412613B1 (en) Information processing systems and programs
JP7412617B1 (en) Information processing systems and programs
JP2019049987A (en) Information processing method, device, and program for causing computer to execute the method
JP2019030638A (en) Information processing method, device, and program for causing computer to execute information processing method
JP2018192238A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP6826626B2 (en) Viewing program, viewing method, and viewing terminal
JP6722316B1 (en) Distribution program, distribution method, computer, and viewing terminal
JP6718933B2 (en) Program, information processing apparatus, and method
JP2018190196A (en) Information processing method, information processing device, program causing computer to execute information processing method
JP2019020832A (en) Information processing method, device, and program for causing computer to execute the method
JP6820299B2 (en) Programs, information processing equipment, and methods
JP7413472B1 (en) Information processing systems and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230220

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R150 Certificate of patent or registration of utility model

Ref document number: 7354466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150