WO2018092535A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2018092535A1
WO2018092535A1 PCT/JP2017/038614 JP2017038614W WO2018092535A1 WO 2018092535 A1 WO2018092535 A1 WO 2018092535A1 JP 2017038614 W JP2017038614 W JP 2017038614W WO 2018092535 A1 WO2018092535 A1 WO 2018092535A1
Authority
WO
WIPO (PCT)
Prior art keywords
space
user
unit
content
information
Prior art date
Application number
PCT/JP2017/038614
Other languages
English (en)
French (fr)
Inventor
真人 島川
佐藤 直之
誠司 鈴木
浩丈 市川
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to DE112017005879.1T priority Critical patent/DE112017005879T5/de
Priority to US16/344,674 priority patent/US11023599B2/en
Publication of WO2018092535A1 publication Critical patent/WO2018092535A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1089In-session procedures by adding media; by removing media
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/402Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • H04L65/4025Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services where none of the additional parallel sessions is real time or time sensitive, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/102Entity profiles

Definitions

  • the present disclosure relates to an information processing apparatus, an information processing method, and a program.
  • the sensor unit 220 can include various sensors such as a three-dimensional sensor (for example, a depth sensor and a stereo camera) and a two-dimensional sensor (for example, an image sensor and an infrared sensor).
  • the sensor unit 220 detects various types of information such as 3D data in the real space in which the sensor unit 220 is arranged by receiving or reading out.
  • the sensor unit 220 may include a plurality of depth cameras and a plurality of RGB cameras. Then, each of the plurality of depth cameras detects distance information to an object located in front of the depth camera, so that the sensor unit 220 can acquire substantially the entire 3D data of the corresponding real space.
  • the sensor unit 220 can also perform tracking processing of each object based on the feature amount of each separated object. And the sensor part 220 does not change the object ID provided to the said object regarding the object determined to be the same between continuous frames.
  • the stream generation unit 226 specifies a part specified by the first control information from the information transmitted from the recognition unit 224. And a stream including only the extracted information may be generated. Then, the stream generation unit 226 may transmit the stream to the transmission unit 228.
  • the server 10 is an example of an information processing device according to the present disclosure.
  • the server 10 generates a (virtual) shared space for communication between users located in different real spaces 2 based on the streams received from the input unit 22 of each real space 2. For example, the server 10 generates a shared space by combining streams received from the input unit 22 (transmission unit 228) in each real space 2.
  • Client connection unit 120 The client connection unit 120 transmits information transmitted from the shared space management unit 100 to the connection destination client 20. In addition, the client connection unit 120 transmits information received from the connection destination client 20 to the shared space management unit 100.
  • the recognition unit 104 Based on the shared space Frame data generated by the shared space generation unit 102, the recognition unit 104 performs various recognition processes such as face recognition, finger recognition, bone recognition, and the like. Although details will be described later, for example, the recognition unit 104 first acquires the shared space Frame data from the shared space Frame data DB 156 in the order of frames. Then, the recognition unit 104 performs various recognition processes based on the acquired shared space Frame data, and transmits the recognized result to the event recognition unit 106.
  • various recognition processes such as face recognition, finger recognition, bone recognition, and the like.
  • the recognition unit 104 first acquires the shared space Frame data from the shared space Frame data DB 156 in the order of frames. Then, the recognition unit 104 performs various recognition processes based on the acquired shared space Frame data, and transmits the recognized result to the event recognition unit 106.
  • the output unit 24 may be a wearable device such as an HMD or AR (Augmented Reality) glass.
  • the HMD may be a shielding type or a video transmission type.
  • the output unit 24 is not limited to an example of a wearable device, and is a projector, for example, and projects a stream received from the server 10 onto a projection target (for example, a wall) in the corresponding real space. Also good.
  • the output unit 24 may be configured by a combination of a plurality of devices (for example, a combination of AR glasses and a projector). In the following, description will be made centering on an example in which the output unit 24 is a wearable device.
  • the display unit 246 displays the video generated by the synthesis unit 244 or the video data transmitted from the stream separation unit 242.
  • Control information transmission unit 252 can be configured to include a communication device such as a network card.
  • the control information transmission unit 252 transmits the recognition result (such as the recognition result of the position and orientation of the display unit 246) transmitted from the recognition unit 250 to the server 10 as second control information.
  • the client 20 may be configured as a single device or may be configured by a plurality of devices.
  • the present invention is not limited to this example.
  • the sensor unit 220 and the sensor unit 248 may be configured integrally and the input unit 22 and the output unit 24 may share this sensor unit.
  • the recognition unit 224 of the input unit 22 and the recognition unit 250 of the output unit 24 may be configured integrally, and the input unit 22 and the output unit 24 may share this recognition unit.
  • the start processing unit 400 includes the output unit 24a (for example, the display unit 246) in the real space 2a where the user 4a is located and the output unit 24b (for example, the display unit) in the real space 2b where the user 4b is located. 246) may output information indicating an error.
  • real space identification information such as “real space A”, “real space B”, and “real space C” may be registered in the set value.
  • the setting values associated with the user 4a are “real space A, real space C, real space D” and the setting values associated with the user 4b are “ In the case of “real space B, real space C”, only “real space C” matches. Therefore, the start processing unit 400 determines to generate free viewpoint content, and determines the “real space C” as the base space.
  • Additional participation processing unit 402 ⁇ (2-1-4-1. Determination of switching of base space)
  • the additional participation processing unit 402 creates a free viewpoint content in the shared space when an operation for joining a new user 4a to the shared space corresponding to the free viewpoint content is detected. Whether to change the corresponding base space is determined based on a predetermined condition.
  • the operation for the new user 4a to participate in the shared space is, for example, an operation on a predetermined input device, a gesture, or the like from the shared space list displayed on the display unit 246 viewed by the user 4a.
  • the additional participation processing unit 402 Whether or not to change the current base space may be determined based on an answer to an inquiry about switching of the base space for all users 4b participating in the shared space. For example, the additional participation processing unit 402 first adds one or more desired base space candidates associated with the user 4a in the base space selection setting table 170 to all users 4b participating in the shared space. Present. Then, only when all the users 4b agree to switch the base space to one of the one or more base space candidates, the additional participation processing unit 402 sets the current base space as the corresponding base space. You may decide to switch to the candidate.
  • the shared content access right change setting table 178 at the time of leaving, for example, when the leaving user 4a located in the same real space as the base space leaves the shared space, the other contents related to the shared content reproduced on the base space are displayed. It is a table in which the setting information regarding the change of the access right of the user 4b is stored.
  • the user ID and the setting value may be associated with each other, the real space and the setting value may be associated with each other, or the user ID and the actual value may be associated with each other.
  • a space and a set value may be associated with each other.
  • the content processing unit 406 processes the content of the free viewpoint so that the user participating in the shared space can perceive that the corresponding object is deleted. For example, the content processing unit 406 processes the content of the free viewpoint so as to display an animation for a predetermined time (for example, 1 minute) indicating that the display of the corresponding object is ended.
  • a predetermined time for example, 1 minute
  • the content processing unit 406 may process the content of the free viewpoint so that a predetermined sound effect is output at the timing when the object to be deleted is not displayed.
  • the content processing unit 406 displays the base space before all the objects displayed together before and after the change of the base space (for example, users who remain in the shared space after the change of the base space).
  • the content of the free viewpoint may be processed so as to display an animation that flies and moves to the base space after the change.
  • the video of the content of the corresponding free viewpoint is displayed so as to be perceived seamlessly. For this reason, each user who has already participated in the shared space can be prevented from feeling uncomfortable or surprised.
  • the start processing unit 400 generates a shared space based on the real space different from the base space of the real space 2a and the real space 2b and the base space determined in S121 (S123). Then, the start processing unit 400 generates free viewpoint content based on the generated shared space (S125).
  • the additional participation processing unit 402 of the server 10 extracts the setting value associated with the user 4c from the base space selection setting table 170 in the base space selection setting table 170 (S203). ).
  • the additional participation processing unit 402 sets the current base space as the real space (where the user 4c is located). It is determined to switch to 2c (S215).
  • the content processing unit 406 processes the content of the free viewpoint so as to display an animation for a predetermined time indicating that the base space is switched.
  • the output unit 24 display unit 246 in the real space 2 where each user 4 participating in the shared space is located displays the animation (S217).
  • the termination processing unit 404 When the extracted setting value is “delete connection with base space”, the termination processing unit 404 first deletes the connection with the current base space (S307). Next, the end processing unit 404 determines a new base space based on the setting value associated with each user participating in the shared space in the base space selection setting table 170 (S309). Then, the end processing unit 404 determines to newly connect (switch) to the determined base space (S311). Thereafter, the server 10 performs the process of S331 described later.
  • the content processing unit 406 of the server 10 processes the content of the free viewpoint so as to display an animation of a predetermined time indicating that the base space is switched.
  • the output unit 24 display unit 246 in the real space 2 in which each user 4 participating in the shared space is located displays the animation (S331).
  • the end processing unit 404 extracts the setting value associated with the user 4c in the leaving device access right change setting table 176 from the leaving device access right change setting table 176. (S341).
  • the server 10 uses the setting information related to the start or end of use of the content. Based on this, the setting relating to the use of the content of the free viewpoint is changed. For example, when information indicating the end of use of the free viewpoint content by the user is acquired, the server 10 sets restrictions on the use of the free viewpoint content based on the registered content of the setting information DB 160. Thereby, in the scene where a user complete
  • the server 10 shares the shared space according to the setting value associated with the user (or the real space where the user is located) in the setting information DB 160.
  • the use of the content by other users can be restricted.
  • the user can register in advance a desired value in the setting information DB 160 regarding the setting of the shared space when leaving the shared space. Therefore, even after the user leaves the shared space, the privacy of the user is appropriately protected.
  • the server 10 includes a CPU 900, a ROM (Read Only Memory) 902, a RAM 904, a bus 906, an interface 908, a storage device 910, and a communication device 912.
  • ROM Read Only Memory
  • the CPU 900 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the server 10 according to various programs.
  • the CPU 900 is constituted by a processor such as a microprocessor.
  • the CPU 900 can function as the shared space management unit 100, the stream separation unit 124, and the stream generation unit 130.
  • the ROM 902 stores control data such as programs used by the CPU 900 and calculation parameters.
  • the RAM 904 temporarily stores a program executed by the CPU 900, for example.
  • the information processing apparatus may be a general-purpose PC, a tablet terminal, a game machine, a mobile phone such as a smartphone, a portable music player, a robot, or a wearable device such as an HMD or AR glass.
  • each step in the processing flow of the above-described embodiment does not necessarily have to be processed in the order described.
  • the steps may be processed by changing the order as appropriate.
  • Each step may be processed in parallel or individually instead of being processed in time series. Further, some of the described steps may be omitted, or another step may be further added.
  • the following configurations also belong to the technical scope of the present disclosure.
  • a use restriction unit that sets restrictions on the use of the content of the free viewpoint based on the information indicating the end of use and the first setting information;
  • An information processing apparatus comprising: (2) The content of the free viewpoint is content provided based on sensing of a first real space where the first user is located and sensing of a second real space where the second user is located. The information processing apparatus according to (1).
  • (3) The use restriction unit may restrict the use of the free viewpoint content after the use of the free viewpoint content by the first user to information indicating the end of use and the first setting information.
  • the information processing apparatus which is set based on the information.
  • the usage restriction unit sets restrictions on the use of the free viewpoint content by the second user based on the information indicating the end of the usage and the first setting information.
  • the information processing apparatus according to 3).
  • the information processing apparatus according to any one of (2) to (4), wherein the first setting information is associated with the first real space.
  • the information processing apparatus according to any one of (2) to (5), wherein the first setting information is associated with the first user.
  • the information processing apparatus according to any one of (2) to (6), wherein the first setting information is setting information at a time when the use of the free viewpoint content ends.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Computing Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】あるユーザがコンテンツの利用を終了する場面において、当該コンテンツの利用を適切に制限することが可能な、情報処理装置、情報処理方法、およびプログラムを提案する。 【解決手段】実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得する取得部と、前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限を設定する利用制限部と、を備える、情報処理装置。

Description

情報処理装置、情報処理方法、およびプログラム
 本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
 従来、例えば臨場感の高いコンテンツを生成することを目的として、実空間をセンシングした結果に基いてコンテンツを生成する技術が各種提案されている。
 例えば、下記特許文献1には、複数のカメラにより撮影された画像に基いて、自由視点映像を生成する技術が記載されている。
特開2005-4487号公報
 ところで、自由視点のコンテンツを複数のユーザが共有して利用可能であることも望まれる。このような場面に特許文献1に記載の技術を適用することを想定すると、特許文献1に記載の技術では、あるユーザが当該コンテンツの利用を終了する場合、その後他のユーザが当該コンテンツを利用する際の処理について考慮がされていない。
 そこで、本開示では、あるユーザがコンテンツの利用を終了する場面において、当該コンテンツの利用を適切に制限することが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
 本開示によれば、実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得する取得部と、前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限を設定する利用制限部と、を備える、情報処理装置が提供される。
 また、本開示によれば、実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得することと、前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限をプロセッサが設定することと、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータを、実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得する取得部と、前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限を設定する利用制限部、として機能させるための、プログラムが提供される。
 以上説明したように本開示によれば、あるユーザがコンテンツの利用を終了する場面において、当該コンテンツの利用を適切に制限することができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の実施形態による情報処理システムの構成例を示した説明図である。 同実施形態によるクライアント20の構成例を示した機能ブロック図である。 実空間2内に位置するオブジェクトのセグメンテーションの例を示した説明図である。 同実施形態による共有空間の生成例を示した説明図である。 同実施形態によるサーバ10の構成例を示した機能ブロック図である。 同実施形態による共有空間管理部100の構成例を示した機能ブロック図である。 同実施形態による共有空間生成部102の構成例を示した機能ブロック図である。 同実施形態による設定情報DB160の構成例を示した説明図である。 同実施形態による共有空間の生成例の一部を示した説明図である。 同実施形態による共有空間の生成例の一部を示した説明図である。 同実施形態による共有空間の生成例の一部を示した説明図である。 同実施形態による、新たなオブジェクトの表示が開始されることを示すアニメーションの一例を示した図である。 同実施形態による、新たなオブジェクトの表示が開始されることを示すアニメーションの一例を示した図である。 同実施形態による、新たなオブジェクトの表示が開始されることを示すアニメーションの一例を示した図である。 同実施形態による、削除対象のオブジェクトの表示が終了されることを示すアニメーションの一例を示した図である。 同実施形態による、削除対象のオブジェクトの表示が終了されることを示すアニメーションの一例を示した図である。 同実施形態による、削除対象のオブジェクトの表示が終了されることを示すアニメーションの一例を示した図である。 同実施形態による、ベース空間が切り替わることを示すアニメーションの一例を示した図である。 同実施形態による、ベース空間が切り替わることを示すアニメーションの一例を示した図である。 同実施形態による「空間共有の開始時の処理の流れ」の一部を示したフローチャートである。 同実施形態による「空間共有の開始時の処理の流れ」の一部を示したフローチャートである。 同実施形態による「共有空間への追加参加時の処理の流れ」を示したフローチャートである。 同実施形態による「退出時の処理の流れ」の一部を示したフローチャートである。 同実施形態による「退出時の処理の流れ」の一部を示したフローチャートである。 同実施形態による「退出時の処理の流れ」の一部を示したフローチャートである。 同実施形態によるサーバ10のハードウェア構成を示した説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じて入力部22aおよび入力部22bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、入力部22aおよび入力部22bを特に区別する必要が無い場合には、単に入力部22と称する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.情報処理システムの構成
 2.実施形態の詳細な説明
 3.ハードウェア構成
 4.変形例
<<1.情報処理システムの構成>>
 <1-1.概要>
 まず、本開示の実施形態による情報処理システムの構成について、図1を参照して説明する。図1に示すように、本実施形態による情報処理システムは、サーバ10、複数のクライアント20、および、通信網26を含む。また、各クライアント20は、入力部22および出力部24を有する。
 図1に示すように、本実施形態では、複数の実空間2が予め定められており、そして、複数の実空間2の各々には、クライアント20が配置されていることを想定する。ここで、実空間2は、例えば家、店舗、オフィスビル、駅、または、レジャー施設などの施設内の部屋(例えばリビングルームや会議室など)や廊下などであり得る。なお、図1では、実空間2が二つ設けられている例を示しているが、かかる例に限定されず、実空間は三つ以上設けられてもよい。また、各実空間2内には、基本的には、一人以上のユーザが存在することを想定するが、かかる例に限定されず、ユーザが存在しない実空間があってもよい。
 また、サーバ10と各クライアント20とは、通信網26を介してそれぞれ接続され、そして、データの送受信を行うことが可能である。
 ところで、異なる実空間2内に位置するユーザ同士がコミュニケーションを行う場面では、相手のユーザに実物を見せながら話をすることにより、より円滑なコミュニケーションが実現可能となる。例えば、ユーザが商品の説明を行う場面では、商品自体や商品の模型などを相手のユーザに見せながら説明する方が、相手のユーザは説明をより理解しやすい。
 また、コミュニケーションの状況によっては、ユーザの近くに位置する物体だけでなく、当該ユーザから離れて位置する物体(例えばコミュニケーションを行うユーザ間で話題になっている物体など)も相手のユーザに閲覧させることが望ましい場合もある。そこで、本実施形態によるサーバ10は、コミュニケーションを行う各ユーザが位置する各実空間2の略全体の3Dデータを合成することにより、自由視点のコンテンツを生成する。そして、各ユーザは自由視点のコンテンツを同時に視聴することにより、あたかも同じ空間内に位置するような体験をしながら、自由にコミュニケーションを行うことができる。
 {自由視点のコンテンツ}
 ここで、自由視点のコンテンツは、実空間2内に配置された複数の視点(入力部22)から実空間2がセンシングされたデータに基いて提供される、自由な視点位置からの映像(例えば当該実空間2の映像など)を提示するためのデータであり得る。例えば、複数の視点から実空間2が例えば同時にセンシングされたデータが統合されることにより三次元の仮想空間が構築され得る。この場合、自由視点のコンテンツは、当該三次元の仮想空間における、自由な視点からの映像を提示するデータであり得る。例えば、自由視点のコンテンツは、当該三次元の仮想空間において、視点を仮想的に自由に動かした際の当該視点からの当該仮想空間の映像を提示するデータであり得る。
 例えば、ユーザが装着しているHMD(Head Mounted Display)に自由視点のコンテンツが表示されており、かつ、視点を移動させるための操作(例えば、所定の入力デバイスに対する操作や音声コマンドなど)をユーザが行った場合には、当該操作に基づく移動後の視点からの映像が当該HMDに表示され得る。このように、ユーザは、視点を自由に移動させて当該自由視点のコンテンツを視聴することが可能であり得る。
 また、自由視点のコンテンツは、センシング対象の実空間2内の各物体を示す三次元情報および色情報を含み得る。例えば、自由視点のコンテンツは、上記の三次元の仮想空間における、当該各物体に対応する仮想オブジェクトが有する各点の位置を示す三次元情報および各点の色情報を含む。また、自由視点のコンテンツは、入力部22により集音された音声などの音情報をさらに含んでもよい。
 <1-2.入力部22>
 以下、クライアント20およびサーバ10の内容についてより詳細に説明を行う。図1に示したように、入力部22は、実空間2内に設置された複数のカメラ(例えば複数のデプスカメラ、および、複数のRGBカメラ)を有し得る。入力部22は、入力部22が配置されている実空間をセンシングすることにより、例えば当該実空間内の各オブジェクト(物体)の3Dデータを取得する。そして、入力部22は、取得した3Dデータを含むFrameデータをサーバ10へ送信する。
 図2は、クライアント20(入力部22および出力部24)の構成例を示した機能ブロック図である。図2に示すように、入力部22は、センサ部220、制御情報受信部222、認識部224、ストリーム生成部226、および、送信部228を有する。
 {1-2-1.センサ部220}
 センサ部220は、3次元センサ(例えばデプスセンサやステレオカメラなど)および2次元センサ(例えばイメージセンサや赤外線センサなど)等の各種センサを含んで構成され得る。センサ部220は、センサ部220が配置されている実空間内の3Dデータなどの各種の情報を受信または読出し処理などを行うことにより検出する。例えば、センサ部220は、複数のデプスカメラ、および、複数のRGBカメラを有し得る。そして、当該複数のデプスカメラの各々が、当該デプスカメラの前方に位置するオブジェクトまでの距離情報を検出することにより、センサ部220は、該当の実空間の略全体の3Dデータを取得し得る。また、当該複数のRGBカメラの各々は、撮像することにより2D画像を取得し得る。ここで、3Dデータの形式は、例えばポイントクラウド(点群)や3Dメッシュ(ポリゴン)など、任意の形式であり得る。なお、センサ部220が有する複数のカメラ間は相互に接続され、フレーム同期が行われ得る。
 (1-2-1-1.セグメンテーション処理)
 例えば、センサ部220は、フレーム単位で、まず、ポイントクラウドデータを生成し、そして、生成したポイントクラウドデータに基づいて、オブジェクトの分離処理(セグメンテーション処理)を行う。そして、センサ部220は、分離された個々のオブジェクトに関して、センサ部220が配置されている実空間2に占める領域情報を算出する。さらに、センサ部220は、個々のオブジェクトに対してオブジェクトIDを付与する。ここで、オブジェクトIDは、個々のオブジェクトを一意に識別するためのIDである。
 ここで、図3を参照して、上記の内容についてより詳細に説明する。図3に示したように、例えば、実空間2a内のセンサ部220aは、オブジェクト42aおよびオブジェクト42bをそれぞれセグメンテーションし、そして、オブジェクト42aのオブジェクトIDとして「1」、オブジェクト42bのオブジェクトIDとして「2」をそれぞれ設定する。同様に、実空間2b内のセンサ部220bは、図3に示したように、オブジェクト42cおよびオブジェクト42dをそれぞれセグメンテーションし、そして、オブジェクト42cのオブジェクトIDとして「1」、オブジェクト42dのオブジェクトIDとして「2」をそれぞれ設定する。
 (1-2-1-2.モデリング処理)
 また、センサ部220は、分離された各オブジェクトに関してモデリング処理を行い、3Dメッシュを生成することが可能である。
 また、センサ部220は、当該各オブジェクトと、センサ部220が撮影した2D画像との対応関係を示す2D画像相関情報をさらに生成する。ここで、2D画像相関情報は、各オブジェクトが、撮影された2D画像内のいずれの位置にそれぞれ対応するかを示す情報である。
 また、センサ部220は、分離された各オブジェクトの特徴量などに基づいて、各オブジェクトのトラッキング処理を行うことも可能である。そして、センサ部220は、連続するフレーム間で同一と判定されるオブジェクトに関しては、当該オブジェクトに付与されているオブジェクトIDを変更しない。
 また、センサ部220は、一以上のマイクロフォンをさらに有し得る。そして、センサ部220は、該当の実空間内の音を集音し得る。
 (1-2-1-3.出力)
 また、センサ部220は、一フレームごとに、撮影した2D画像、取得した各オブジェクトの3Dデータ、および2D画像相関情報を含むFrameデータを出力する。なお、当該Frameデータは、集音された音声データをさらに含んでもよい。
 なお、センサ部220は、単一のデバイス(例えばカメラ)により構成されてもよいし、または、複数のデバイスにより構成されてもよい。なお、複数のデバイスにより構成される場合には、当該複数のデバイスにより取得される3Dデータなどが、キャリブレーションやフレーム同期処理などにより精度良く合成され得る。
 {1-2-2.制御情報受信部222}
 制御情報受信部222は、ネットワークカードなどの通信装置を含んで構成され得る。制御情報受信部222は、サーバ10から第1の制御情報を受信する。また、制御情報受信部222は、受信した第1の制御情報を認識部224およびストリーム生成部226へ伝達する。ここで、第1の制御情報は、例えば、後述する認識部224による認識処理に関する指示の情報や、後述するストリーム生成部226によるストリームの生成に関する指示の情報を含み得る。
 {1-2-3.認識部224}
 (1-2-3-1.認識)
 認識部224は、一または複数の処理回路(CPU(Central Processing Unit)など)を含んで構成され得る。認識部224は、センサ部220から伝達されるFrameデータに基づいて、各種の認識処理を行う。例えば、認識部224は、当該Frameデータに含まれる3Dデータに基づいて認識処理を行ってもよいし、または、当該Frameデータに含まれる2D画像に基づいて認識処理を行ってもよい。
 例えば、認識部224は、当該Frameデータに基づいてオブジェクトの種別の認識を行う。そして、認識部224は、人と判定したオブジェクトに対しては顔認識、ボーン認識、および、手指認識をさらに行う。また、認識部224は、(サーバ10により生成される)自由視点のコンテンツの利用を開始するための、ユーザの操作や、当該自由視点のコンテンツの利用を終了するための、ユーザの操作を認識することが可能である。なお、これらの操作の具体的な内容については後述する。
 また、第1の制御情報が制御情報受信部222から伝達された場合には、認識部224は、さらに当該第1の制御情報に従って、認識処理を行うことも可能である。
 (1-2-3-2.出力)
 また、認識部224は、認識処理の結果を、伝達されたFrameデータに付加し、そして、付加後のFrameデータをストリーム生成部226へ伝達する。例えば、認識部224は、まず、例えば人と判定されたオブジェクトに対する認識処理の結果に基づいてメタ情報、ボーン認識情報、および、手指認識情報を生成する。そして、認識部224は、これらの情報を、伝達されたFrameデータに付加する。ここで、メタ情報は、認識された各オブジェクトの属性などを示す情報である。例えば、メタ情報は、オブジェクトごとに、当該オブジェクトのオブジェクトID、当該オブジェクトが位置する領域情報、当該オブジェクトの種類、該当の実空間、当該オブジェクトが他のオブジェクトと接触または近接している否かの情報、および/または、当該オブジェクトの近隣に位置する他のオブジェクトのIDなどを含み得る。
 {1-2-4.ストリーム生成部226}
 ストリーム生成部226は、一または複数の処理回路(CPUなど)を含んで構成され得る。ストリーム生成部226は、認識部224から伝達されるFrameデータに基づいて、ストリームを生成する。そして、ストリーム生成部226は、生成したストリームを送信部228へ伝達する。例えば、ストリーム生成部226は、まず、認識部224から伝達される各種の情報を多重化することにより一つのストリームを生成し、そして、当該一つのストリームを送信部228へ伝達してもよい。または、ストリーム生成部226は、認識部224から伝達される各種の情報からそれぞれ別々のストリームを生成し、そして、生成した各ストリームを送信部228へ伝達してもよい。
 なお、第1の制御情報が制御情報受信部222から伝達された場合には、ストリーム生成部226は、認識部224から伝達された情報の中から、当該第1の制御情報が指定する一部の情報を抽出し、そして、抽出した情報のみを含むストリームを生成してもよい。そして、ストリーム生成部226は、当該ストリームを送信部228へ伝達してもよい。
 {1-2-5.送信部228}
 送信部228は、ネットワークカードなどの通信装置を含んで構成され得る。送信部228は、ストリーム生成部226から伝達されたストリームをサーバ10へ送信する。
 <1-3.サーバ10>
 サーバ10は、本開示における情報処理装置の一例である。サーバ10は、各実空間2の入力部22から受信されるストリームに基づいて、互いに異なる実空間2内に位置するユーザ間のコミュニケーションのための(仮想的な)共有空間を生成する。例えば、サーバ10は、各実空間2内の入力部22(送信部228)から受信されるストリームを合成することにより共有空間を生成する。
 図4は、共有空間の生成例を示した説明図である。図4に示したように、例えば、共有空間生成部102は、実空間2aの入力部22(送信部228)から受信されるストリームに含まれるオブジェクト42aおよびオブジェクト42bの3Dデータと、実空間2bの入力部22(送信部228)から受信されるストリームに含まれるオブジェクト42cおよびオブジェクト42dの3Dデータとを共有空間40内にそれぞれ配置することにより、共有空間40を生成する。
 なお、サーバ10は、複数の共有空間を生成することも可能である。例えば、サーバ10は、実空間2a内の入力部22a(送信部228)から受信されたストリームと実空間2b内の入力部22b(送信部228)から受信されたストリームとに基いて共有空間Aを生成し、かつ、実空間2c内の入力部22c(送信部228)から受信されたストリームと実空間2d内の入力部22d(送信部228)から受信されたストリームとに基いて共有空間Bを生成してもよい。
 また、サーバ10は、生成した共有空間に基づいて自由視点のコンテンツを生成し、そして、当該コンテンツを各実空間2の出力部24へそれぞれ送信する。
 図5は、サーバ10の構成例を示した機能ブロック図である。図5に示すように、サーバ10は、共有空間管理部100、および、複数のクライアント接続部120を有する。なお、配置されているクライアント20ごとに、クライアント接続部120は一つずつ設けられ得る。また、クライアント接続部120とクライアント20との組(接続関係)は予め設定され得る。
 {1-3-1.クライアント接続部120}
 クライアント接続部120は、共有空間管理部100から伝達される情報を接続先のクライアント20へ送信する。また、クライアント接続部120は、接続先のクライアント20から受信される情報を共有空間管理部100へ伝達する。
 また、図5に示すように、各クライアント接続部120は、制御情報送信部122、ストリーム分離部124、受信部126、制御情報受信部128、ストリーム生成部130、および、送信部132を有する。
 {1-3-2.受信部126}
 受信部126は、本開示における取得部の一例である。受信部126は、(図25を参照して)後述する通信装置912を含んで構成され得る。受信部126は、接続先の入力部22(送信部228)からストリームを受信する。そして、受信部126は、受信したストリームをストリーム分離部124へ伝達する。
 {1-3-3.ストリーム分離部124}
 ストリーム分離部124は、一または複数の処理回路((図25を参照して)後述するCPU900など)を含んで構成され得る。ストリーム分離部124は、受信部126から伝達されたストリームに対して例えば逆多重化などを行うことにより、一フレームごとに3Dデータとメタ情報とに分離する。そして、ストリーム分離部124は、分離後の3Dデータとメタ情報とを共有空間生成部102へ伝達する。
 {1-3-4.制御情報送信部122}
 制御情報送信部122は、後述する通信装置912を含んで構成され得る。制御情報送信部122は、後述する共有空間生成部102の指示に基づいて、接続先のクライアント20(入力部22)へ第1の制御情報を送信する。例えば、制御情報送信部122は、共有空間生成部102により決定される、望ましい3Dデータまたはメタ情報に関する情報を第1の制御情報として生成し、そして、当該第1の制御情報を入力部22へ送信する。これにより、ネットワーク帯域の利用を節約したり、また、クライアント20側での認識処理を軽減させることが可能となる。
 例えば、特定の実空間の3Dデータの一部を共有空間生成部102が利用しないことが決定された場合には、制御情報送信部122は、当該決定の内容を第1の制御情報に含めて、第1の制御情報を生成し、そして、当該第1の制御情報を該当の実空間の入力部22へ送信する。これにより、送信先の入力部22は、該当のデータをサーバ10へ送信しないように制御することが可能となる。
 {1-3-5.制御情報受信部128}
 制御情報受信部128は、後述する通信装置912を含んで構成され得る。制御情報受信部128は、接続先の出力部24(制御情報送信部252)から第2の制御情報を受信する。また、制御情報受信部128は、受信した第2の制御情報を共有空間生成部102およびストリーム生成部130へ伝達する。ここで、第2の制御情報は、例えば、後述する(出力部24の)表示部246の位置や姿勢などの検出結果などの情報を含み得る。
 {1-3-6.ストリーム生成部130}
 ストリーム生成部130は、一または複数の処理回路(CPU900など)を含んで構成され得る。ストリーム生成部130は、共有空間生成部102により生成される共有空間Frameデータに基づいて、接続先のクライアント20用のストリームを生成する。ここで、共有空間Frameデータは、共有空間に関する自由視点のコンテンツの、一フレーム分のデータであり得る。例えば、共有空間Frameデータは、共有空間内の各オブジェクトの3Dデータおよびメタ情報などを含む。
 例えば、ストリーム生成部130は、生成された共有空間の3Dデータおよびメタ情報などを多重化することにより、当該ストリームを生成する。なお、第2の制御情報が制御情報受信部128から伝達された場合には、ストリーム生成部130は、さらに当該第2の制御情報に基づいて、当該ストリームを生成することも可能である。例えば、ストリーム生成部130は、当該第2の制御情報が指示する、表示不要な3Dデータを生成対象のストリームから除外したり、または、品質を低下させるなどの処理を行うことにより、当該ストリームを生成する。
 また、ストリーム生成部130は、生成したストリームを送信部132へ伝達する。
 {1-3-7.送信部132}
 送信部132は、後述する通信装置912を含んで構成され得る。送信部132は、ストリーム生成部130から伝達されたストリームを、接続先のクライアント20の出力部24へ送信する。
 {1-3-8.共有空間管理部100}
 共有空間管理部100は、一または複数の処理回路(CPU900など)を含んで構成され得る。共有空間管理部100は、例えばCPU900やRAM(Random Access Memory)904などを用いて、サーバ10の動作を統括的に制御する。また、共有空間管理部100は、各クライアント接続部120から伝達される、各実空間2内のクライアント20から受信されたFrameデータおよび第2の制御情報に基づいて、自由視点のコンテンツ(共有空間Frameデータ)を生成する。また、共有空間管理部100は、生成した自由視点のコンテンツを各クライアント接続部120へ伝達する。
 図6は、共有空間管理部100のより詳細な構成例を示した機能ブロック図である。図6に示すように、共有空間管理部100は、共有空間生成部102、認識部104、イベント認識部106、および、制御部108を有する。
 {1-3-9.認識部104}
 認識部104は、共有空間生成部102により生成される共有空間Frameデータに基づいて、例えば顔認識、手指認識、または、ボーン認識などの各種の認識処理を行う。詳細については後述するが、例えば、認識部104は、まず、共有空間Frameデータを共有空間FrameデータDB156からフレーム順に取得する。そして、認識部104は、取得した共有空間Frameデータに基いて各種の認識処理を行い、そして、認識した結果をイベント認識部106へ伝達する。
 なお、認識部104は、複数のクライアント20の各々から受信されたストリームから得られるメタ情報を用いることにより、認識処理を軽減すること(一部省略するなど)も可能である。
 {1-3-10.イベント認識部106}
 イベント認識部106は、認識部104から伝達される時系列の情報に基づいて、イベント情報を生成する。例えば、生成された共有空間にユーザが参加しており、かつ、当該共有空間上に配置されている机に対してユーザが指差したことが認識された場合には、イベント認識部106は、当該机を指差したことをイベント情報として生成する。また、あるユーザが位置する実空間内の机の上のラップトップ型PC(Personal Computer)を当該ユーザが持ち上げたことが認識された場合には、イベント認識部106は、当該ラップトップ型PCを持ち上げたことをイベント情報として生成する。
 また、イベント認識部106は、生成したイベント情報を制御部108へ伝達する。
 {1-3-11.制御部108}
 制御部108は、イベント認識部106から伝達されるイベント情報に基づいて、第3の制御情報を生成する。そして、制御部108は、生成した第3の制御情報を共有空間生成部102へ伝達する。ここで、第3の制御情報は、共有空間生成部102による共有空間の生成時に利用される情報であり得る。
 {1-3-12.共有空間生成部102}
 共有空間生成部102は、複数のクライアント20の各々から受信されたストリームから得られる(換言すれば、複数のクライアント20の各々から提供される)Frameデータおよびメタ情報に基づいて、共有空間Frameデータを生成する。また、図6に示すように、共有空間生成部102は、同期部150、共有空間合成部152、配信部154、および、共有空間FrameデータDB156を有する。
 {1-3-13.同期部150}
 同期部150は、複数のクライアント20の各々から受信されたFrameデータおよび第2の制御情報に関して、タイミングが同じである情報ごと(例えば、一フレームごと)に纏めて共有空間合成部152へ順次伝達する。
 {1-3-14.共有空間合成部152}
 共有空間合成部152は、同期部150から伝達される複数の実空間の各々のFrameデータに基づいて、共有空間Frameデータを生成する。また、共有空間合成部152は、生成した共有空間Frameデータを共有空間FrameデータDB156へ格納する。
 {1-3-15.配信部154}
 配信部154は、共有空間合成部152により生成された共有空間Frameデータに基づいて、実空間ごとに、当該実空間内の出力部24へ送信されるFrameデータを生成する。そして、配信部154は、生成した各Frameデータを、当該Frameデータの送信先の実空間に対応するクライアント接続部120へそれぞれ伝達する。
 <1-4.出力部24>
 出力部24は、サーバ10から受信されるストリーム(例えば自由視点のコンテンツ)を出力する。これにより、該当の実空間内のユーザは、出力されたコンテンツを視聴することにより、あたかも、生成された共有空間の内部に位置するような体験をすることができる。
 図1に示したように、出力部24は、例えばHMDやAR(Augumented Reality)グラスなどのウェアラブルデバイスであり得る。なお、HMDは遮蔽型であってもよいし、ビデオ透過型であってもよい。また、出力部24は、ウェアラブルデバイスである例に限定されず、例えばプロジェクタであり、かつ、サーバ10から受信されるストリームを、該当の実空間内の投影対象(例えば壁など)に投影してもよい。または、出力部24は、複数のデバイスの組み合わせ(例えば、ARグラスおよびプロジェクタの組み合わせなど)により構成されてもよい。なお、以下では、出力部24がウェアラブルデバイスである例を中心として説明を行う。
 ここで、図2を再び参照して、出力部24の構成について具体的に説明する。図2に示すように、出力部24は、受信部240、ストリーム分離部242、合成部244、表示部246、センサ部248、認識部250、および、制御情報送信部252を有する。
 {1-4-1.受信部240}
 受信部240は、ネットワークカードなどの通信装置を含んで構成され得る。受信部240は、サーバ10からストリームを受信する。また、受信部240は、受信したストリームをストリーム分離部242へ伝達する。
 {1-4-2.ストリーム分離部242}
 ストリーム分離部242は、一または複数の処理回路(CPUなど)を含んで構成され得る。ストリーム分離部242は、受信部240から伝達されたストリームに対して例えば逆多重化などを行うことにより、当該ストリームを分離する。また、ストリーム分離部242は、分離したデータを合成部244へ伝達する。または、ストリーム分離部242は、分離したデータを表示部246へ伝達してもよい。
 {1-4-3.合成部244}
 合成部244は、一または複数の処理回路(CPUなど)を含んで構成され得る。合成部244は、ストリーム分離部242から伝達されるデータと、認識部250から伝達される認識結果(例えば、表示部246の位置や姿勢などの認識結果など)とに基づいて、3D映像(例えばVR(Virtual Reality)映像やAR映像など)を生成(レンダリング)する。また、合成部244は、生成した映像を表示部246へ伝達する。
 {1-4-4.表示部246}
 表示部246は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)や、OLED(Organic Light Emitting Diode)などから構成され得る。または、表示部246は、透過型のディスプレイ上に映像を表示してもよい。または、表示部246は、プロジェクタであってもよい。
 表示部246は、合成部244により生成された映像、または、ストリーム分離部242から伝達される映像データを表示する。
 {1-4-5.センサ部248}
 センサ部248は、例えばRGBカメラ、GPS(Global Positioning System)受信機、加速度センサ、ジャイロスコープ、および、地磁気センサなどの各種のセンサを含んで構成され得る。例えば、センサ部248は、表示部246の位置および姿勢などに関する情報を検出する。また、センサ部248は、検出した情報を認識部250へ伝達する。
 なお、センサ部248は、単一のデバイスにより構成されてもよいし、または、複数のデバイスにより構成されてもよい。なお、複数のデバイスにより構成される場合には、当該複数のデバイスにより取得される画像などの情報が、キャリブレーションやフレーム同期処理などにより精度良く合成され得る。
 {1-4-6.認識部250}
 認識部250は、一または複数の処理回路(CPUなど)を含んで構成され得る。認識部250は、センサ部248から伝達される情報に基づいて、表示部246の位置および姿勢などの認識処理を行う。また、認識部250は、さらに、ユーザの視点位置の認識を行ってもよい。
 また、認識部250は、認識した結果を合成部244および制御情報送信部252へ伝達する。
 {1-4-7.制御情報送信部252}
 制御情報送信部252は、ネットワークカードなどの通信装置を含んで構成され得る。制御情報送信部252は、認識部250から伝達される認識結果(表示部246の位置および姿勢の認識結果など)を第2の制御情報としてサーバ10へ送信する。
 <1-5.通信網26>
 通信網26は、通信網26に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網26は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網26は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 <1-6.変形例>
 {1-6-1.変形例1}
 なお、本実施形態による情報処理システムの構成は、上述した例に限定されない。例えば、上記の説明では、入力部22および出力部24は実空間ごとにそれぞれ一つずつ配置される例について説明したが、かかる例に限定されず、入力部22および出力部24は、当該情報処理システムにおいてそれぞれ一以上配置されれば良い。また、入力部22のみ、または、出力部24のみが配置される実空間が存在してもよい。
 また、図1および図2では、入力部22および出力部24が分離して構成される例を示しているが、かかる例に限定されない。一または複数の実空間において、入力部22および出力部24は一体的に(例えば一体の装置として)構成されてもよい。
 {1-6-2.変形例2}
 また、サーバ10は、クラウド上のサーバとして構成されてもよいし、または、関連するクライアント20上に構成されてもよい。
 また、上記の説明では、共有空間管理部100が、一つのサーバ(つまりサーバ10)に含まれる例について説明したが、かかる例に限定されない。例えば、複数台のコンピュータ(図示省略)が協同して動作することにより、共有空間管理部100の機能が実現されてもよい。または、上述した共有空間管理部100の機能は、各クライアント20上に分散配置され、かつ、それらが協調して動作するように構成されてもよい。
 {1-6-3.変形例3}
 また、クライアント20は、単一のデバイスとして構成されてもよいし、または、複数のデバイスにより構成されてもよい。
 また、上記の説明では、入力部22のセンサ部220と、出力部24のセンサ部248とが別々に設けられる例について説明したが、かかる例に限定されない。例えば、センサ部220およびセンサ部248は一体的に構成され、かつ、このセンサ部を入力部22と出力部24とが共有してもよい。同様に、入力部22の認識部224、および、出力部24の認識部250は一体的に構成され、かつ、この認識部を入力部22と出力部24とが共有してもよい。
 {1-6-4.変形例4}
 また、上記の説明では、(入力部22の)認識部224、(出力部24の)認識部250、および、(サーバ10の)認識部104がそれぞれ設けられる例について説明したが、かかる例に限定されず、認識部224、認識部250、および、認識部104のうちいずれか一個または二個は設けられなくてもよい。そして、この場合、他の認識部が、設置されない認識部に対応する処理をさらに行うように構成されてもよい。
 {1-6-5.変形例5}
 また、上記の説明では、入力部22のストリーム生成部226、および、サーバ10のストリーム生成部130が多重化処理を行う例について説明したが、かかる例に限定されず、ストリーム生成部226およびストリーム生成部130は、多重化処理を行わなくてもよい。つまり、多重化処理がされずに、サーバ10とクライアント20との間でデータが送信されてもよい。
 <1-7.課題の整理>
 以上、本実施形態による情報処理システムの構成例について説明した。ところで、上述した共有空間では、新たに別のユーザが参加したり、または、参加中のユーザが途中で退出可能であることが望ましい。この場合、別のユーザが参加する際や、参加中のユーザが退出する際に、各ユーザの希望に応じて、共有空間のレイアウトが適応的に変更されたり、または、共有空間内の機器などのアクセス権が適応的に変更されることが望ましい。
 そこで、上記事情を一着眼点にして、本実施形態によるサーバ10を創作するに至った。本実施形態によれば、サーバ10は、ユーザによる自由視点のコンテンツの利用の開始または終了を示す情報が取得された場合に、コンテンツの利用開始または利用終了に関する設定情報に基づいて、当該自由視点のコンテンツの利用に関する設定を変更することが可能である。ここで、例えば、当該自由視点のコンテンツの利用の開始または終了するための操作が行われたことが入力部22(センサ部220など)により検出された際の検出結果を示す情報が、当該自由視点のコンテンツの利用の開始または終了を示す情報であってもよい。または、サーバ10(共有空間管理部100など)が、入力部22(送信部228)から受信されるストリームに基いて、当該自由視点のコンテンツの利用の開始または終了するための操作が行われたと判定した際の判定結果を示す情報が、当該自由視点のコンテンツの利用の開始または終了を示す情報であってもよい。なお、当該自由視点のコンテンツの利用の開始または終了するための操作は、例えば、所定の入力装置に対する操作、ジェスチャー、視線操作、または、発話などにより行われ得る。
<<2.実施形態の詳細な説明>>
 <2-1.構成>
 まず、本実施形態の構成について詳細に説明する。本実施形態の構成の特徴は、特に共有空間生成部102の構成に関する。以下では、図7を参照して、共有空間生成部102の構成についてさらに詳細に説明する。
 {2-1-1.共有空間生成部102}
 (2-1-1-1.設定情報DB160)
 図7に示すように、共有空間生成部102は、設定情報DB160をさらに含む。設定情報DB160は、本開示における第1の設定情報および第2の設定情報の一例である。設定情報DB160は、ユーザによる自由視点のコンテンツの利用開始や利用終了時における、当該自由視点のコンテンツに対応する共有空間の生成や変更に関する設定情報を格納するデータベースである。図8は、設定情報DB160の構成例を示した図である。図8に示したように、設定情報DB160は、例えば、ベース空間選択設定テーブル170、参加時ベース空間切り替え設定テーブル172、退出時ベース空間切り替え設定テーブル174、退出時機器アクセス権変更設定テーブル176、および、退出時共有コンテンツアクセス権変更設定テーブル178を含む。なお、各テーブルの具体的な内容については後述する。
 なお、設定情報DB160の登録内容は、各実空間2内のユーザによりクライアント20を介して参照されたり、変更され得る。例えば、各実空間2内の出力部24(表示部246)が設定画面を表示している際に、所定の入力方法(例えば、所定の入力装置に対する操作、ジェスチャー、視線操作、または、発話など)により、各実空間2内のユーザが設定情報DB160の登録内容を参照したり、変更することが可能であってもよい。または、ユーザが共有空間に参加している場合に、当該ユーザの共有空間上でのジェスチャーや音声が認識されることにより、当該ユーザは設定情報DB160の登録内容を参照したり、変更することが可能であってもよい。なお、各ユーザは、設定情報DB160において、当該ユーザまたは当該ユーザが位置する実空間に関連付けられている設定値のみを変更可能であってもよい。
 {2-1-2.共有空間合成部152}
 図7に示すように、共有空間合成部152は、開始処理部400、追加参加処理部402、終了処理部404、および、コンテンツ処理部406を含む。
 {2-1-3.開始処理部400}
 (2-1-3-1.自由視点のコンテンツの生成可否)
 開始処理部400は、自由視点のコンテンツが未生成である場合に、所定の開始条件に基いて、自由視点のコンテンツを生成するか否かを決定する。また、自由視点のコンテンツを生成することを決定した場合には、開始処理部400は、自由視点のコンテンツ(共有空間Frameデータ)を生成する。
 例えば、所定の開始条件が成立した場合には、開始処理部400は、自由視点のコンテンツを生成することを決定する。また、所定の開始条件が成立しない場合には、開始処理部400は、自由視点のコンテンツを生成しないことを決定する。
 ‐開始条件:相手のユーザの選択
 ここで、所定の開始条件は、空間共有がなされていない状況において、あるユーザ4aが、(空間共有を開始するために)空間共有を希望する相手のユーザ4bを選択する操作を行ったことが入力部22(センサ部220など)により検出され、かつ、当該検出結果が入力部22(送信部228)から受信されることを含み得る。なお、相手のユーザの選択方法としては、例えば、ユーザ4aが閲覧する表示部246に表示されるユーザリストの中から、例えば所定の入力装置に対する操作、ジェスチャー、視線操作、または、発話などにより相手のユーザ4bを選択することであってもよい。または、ユーザ4aが相手のユーザ名を直接発話することにより相手のユーザ4bが選択されてもよい。
 例えば、あるユーザ4aが相手のユーザ4bを選択し、かつ、空間共有を開始するための操作を行ったことが入力部22により検出され、かつ、当該検出結果が入力部22から受信された際には、開始処理部400は、設定情報DB160内のベース空間選択設定テーブル170の登録内容に基づいて、自由視点のコンテンツを生成するか否かを決定する。
 一例として、開始処理部400は、ベース空間選択設定テーブル170において、ユーザ4aに関連付けられている設定値と、ユーザ4bに関連付けられている設定値との比較に基いて、自由視点のコンテンツを生成するか否かを決定する。例えば、ベース空間選択設定テーブル170において、ユーザ4aに関連付けられている、希望のベース空間の候補と、ユーザ4bに関連付けられている、希望のベース空間の候補とが少なくとも一以上一致する場合には、開始処理部400は、自由視点のコンテンツを生成することを決定し、かつ、一致したベース空間の候補をベース空間として決定する。ここで、ベース空間は、生成される共有空間の基礎となる空間である。例えば、共有空間に参加する各ユーザが位置する複数の実空間のうちのいずれかがベース空間として決定され得る。また、当該複数の実空間のうち、ベース空間に選択されなかった全ての実空間内に位置するオブジェクトは当該ベース空間上(例えばベース空間上の空き領域)に配置され得る。
 より詳細には、一致するベース空間の候補が一つだけ存在する場合には、開始処理部400は、当該ベース空間の候補をベース空間として決定する。また、一致するベース空間の候補が複数存在する場合には、開始処理部400は、当該複数のベース空間の候補をユーザ4aおよびユーザ4bのうちのいずれかに提示し、そして、該当のユーザにより選択されたベース空間の候補をベース空間として決定する。ここで、提示対象のユーザは、例えば空間共有の開始の操作を行ったユーザ4であってもよいし、または、予め定められている優先順位がより高いユーザであってもよい。または、開始処理部400は、二人のユーザ4(ユーザ4aおよびユーザ4b)に対して当該複数のベース空間の候補を提示し、そして、当該二人のユーザ4が合意したベース空間の候補をベース空間として決定してもよい。
 また、ベース空間選択設定テーブル170において、ユーザ4aに関連付けられている、希望のベース空間の候補と、ユーザ4bに関連付けられている、希望のベース空間の候補とが一致しない場合には、開始処理部400は、自由視点のコンテンツを生成しないことを決定する。なお、この際、開始処理部400は、ユーザ4aが位置する実空間2a内の出力部24a(例えば表示部246)、および、ユーザ4bが位置する実空間2b内の出力部24b(例えば表示部246)に、エラーを示す情報を出力させてもよい。
 ‐開始条件:空間の選択
 また、所定の開始条件は、空間共有がなされていない状況において、あるユーザ4aが、(空間共有を開始するために)共有空間の基となる実空間(つまり、ベース空間)を選択する操作を行ったことが入力部22(センサ部220など)により検出され、かつ、当該検出結果が入力部22(送信部228)から受信されることを含み得る。なお、実空間の選択方法としては、例えば、ユーザ4aが閲覧する表示部246に表示される空間リストの中から、例えば所定の入力装置に対する操作、ジェスチャー、視線操作、または、発話などにより、空間共有を希望する実空間をユーザ4aが選択することであってもよいし、または、ユーザ4aが、所望の実空間の名前を直接発話することにより、当該実空間が選択されてもよい。
 例えば、開始処理部400は、ベース空間選択設定テーブル170において、当該ユーザ4aに関連付けられている設定値と、当該選択された実空間内に位置するユーザ4bまたは当該実空間に関連付けられている設定値との比較に基いて、自由視点のコンテンツを生成するか否かを決定する。例えば、ベース空間選択設定テーブル170において、ユーザ4aに関連付けられている設定値が「他のユーザの実空間をベース空間として利用する」であり、かつ、当該選択された実空間内に位置するユーザ4bに関連付けられている設定値が「どちらでもよい」である場合には、開始処理部400は、自由視点のコンテンツを生成することを決定し、かつ、当該選択された実空間をベース空間として決定する。
 (2-1-3-2.ベース空間選択設定テーブル170)
 ベース空間選択設定テーブル170は、ベース空間の選択に関する設定情報が格納されるテーブルである。例えば、ベース空間選択設定テーブル170では、ユーザIDと設定値とが関連付けられていてもよいし、または、実空間と設定値とが関連付けられていてもよい。なお、後者の場合、実空間内に位置するユーザが誰であっても、また、当該実空間内にユーザがいない場合であっても、ベース空間の選択に関して同じ設定値が適用される。または、ベース空間選択設定テーブル170では、ユーザID、実空間、および、設定値が関連付けられていてもよい。
 ここで、当該設定値には、例えば「自分の実空間をベース空間として利用する」、「他のユーザの実空間をベース空間として利用する」、および、「どちらでもよい」などが登録され得る。この場合、ベース空間選択設定テーブル170においてユーザ4aに関連付けられている設定値が「自分の実空間をベース空間として利用する」であり、かつ、ユーザ4bに関連付けられている設定値が「どちらでもよい」である場合には、開始処理部400は、自由視点のコンテンツを生成することを決定し、かつ、(ユーザ4aが位置する)実空間2aをベース空間として決定する。
 または、当該設定値には、例えば「実空間A」、「実空間B」、および「実空間C」など、実空間の識別情報が登録され得る。この場合、ベース空間選択設定テーブル170において、ユーザ4aに関連付けられている設定値が「実空間A、実空間C、実空間D」であり、かつ、ユーザ4bに関連付けられている設定値が「実空間B、実空間C」である場合には、両者の間で「実空間C」のみが一致する。そこで、開始処理部400は、自由視点のコンテンツを生成することを決定し、かつ、「実空間C」をベース空間として決定する。
 (2-1-3-3.自由視点のコンテンツの生成)
 また、自由視点のコンテンツを生成することを決定した場合には、開始処理部400は、決定したベース空間に基いて共有空間を生成することにより、自由視点のコンテンツを生成する。例えば、開始処理部400は、まず、設定情報DB160の登録内容に基づいてベース空間を決定する。次に、開始処理部400は、ベース空間以外の実空間内のオブジェクトをベース空間上に配置することにより、共有空間を生成する。そして、開始処理部400は、当該共有空間に基いて共有空間Frameデータを生成する。
 ここで、図9A、図9B、および図10を参照して、共有空間の生成例についてより詳細に説明する。なお、図9A、図9B、および図10では、実空間2aがベース空間として決定された場面における共有空間の生成例を示している。また、図9A、図9B、および図10では、実空間2b内のオブジェクトがベース空間(つまり実空間2a)内に配置されることにより、共有空間が生成される例を示している。なお、図9A、図9B、および図10では、実空間2aおよび実空間2bの上面図を示している。
 例えば、図9Aに示したように、開始処理部400は、まず、(ベース空間として決定した)実空間2aに関して、(入力部22による)オブジェクトの分離およびオブジェクトの認識の結果に基づいて、図9Aの右図に示したようなベース空間レイアウト情報50を生成する。この際、開始処理部400は、図9Aの右図に示したように、ベース空間内の空き領域502の情報(位置や底面積など)も算出し、そして、算出した結果を含めてベース空間レイアウト情報50を生成する。また、図9Bに示したように、実空間2bに関しては、(入力部22による)オブジェクトの分離およびオブジェクトの認識の結果に基づいて、図9Bの右図に示したように、実空間2b内の各オブジェクト42が特定される。
 そして、図10に示したように、開始処理部400は、ベース空間レイアウト情報50に基いて、実空間2b内の各オブジェクト42をベース空間上にそれぞれ配置する。
 (2-1-3-4.ユーザへの権限の付与)
 また、自由視点のコンテンツを生成することを決定した場合には、開始処理部400は、共有空間に(最初に)参加する一以上のユーザ4のうち、決定されたベース空間以外の実空間内に位置するユーザ4bに対して当該ベース空間中のオブジェクトのアクセス権限を付与することが可能である。例えば、開始処理部400は、当該ベース空間中の機器のアクセス権をユーザ4bに対して(無条件で)付与する。ここで、機器は、ホームネットワーク機器やIoT(Internet Of Things)機器などを含み得る。例えば、機器は、AV(Audio-Visual)機器、照明機器、または、エア・コンディショナーなどを含む。
 また、自由視点のコンテンツの生成後、当該ベース空間中で何らかのコンテンツの再生が開始された場合には、開始処理部400は、当該ベース空間以外の実空間内で当該コンテンツを再生可能とするための情報(以下、再生用情報と称する)を、当該実空間内に位置するユーザ4bに対して提供(共有)することが可能である。ここで、当該再生用情報は、例えば、当該共有空間内のテレビジョン受信機により表示されている番組のチャンネル情報や、当該共有空間内の所定の端末上で起動しているWebブラウザに表示されているWebページのURL(Uniform Resource Locator)を含み得る。また、当該再生用情報は、ネットワークストリーミングコンテンツ(例えばVideo Streamingコンテンツなど)のURL、現在の再生時刻の情報や、ベース空間(と同じ実空間)に位置するユーザ4aの当該ネットワークストリーミングコンテンツに関する権利情報などを含み得る。これらの処理例によれば、ベース空間上の機器や、ベース空間内の共有コンテンツに対して、当該ベース空間とは異なる実空間内に位置するユーザ4bも自由にアクセスすることができる。例えば、ユーザ4bは、ベース空間内で再生されている共有コンテンツの再生タイミングと同じタイミングで当該コンテンツを再生することができる。従って、あたかも同一の空間内に一緒にいるかのような感覚をユーザ4aおよびユーザ4bに対して与えることができる。
 {2-1-4.追加参加処理部402}
 (2-1-4-1.ベース空間の切り替えの判定)
 追加参加処理部402は、自由視点のコンテンツの生成後で、かつ、当該自由視点のコンテンツに対応する共有空間へ新たなユーザ4aが参加するための操作が検出された場合に、当該共有空間に対応するベース空間を変更するか否かを所定の条件に基づいて決定する。ここで、当該共有空間へ新たなユーザ4aが参加するための操作は、例えば、ユーザ4aが閲覧する表示部246に表示される共有空間リストの中から、例えば所定の入力装置に対する操作、ジェスチャー、視線操作、または、発話などにより、参加を希望する共有空間をユーザ4aが選択することであってもよいし、または、ユーザ4aが、所望の共有空間(または当該共有空間に対応するベース空間)の名前を直接発話することであってもよい。
 ‐決定例1
 例えば、追加参加処理部402は、ベース空間選択設定テーブル170において当該ユーザ4aに関連付けられている設定値に基いて、現在のベース空間を変更するか否かを決定する。例えば、ベース空間選択設定テーブル170において当該ユーザ4aに関連付けられている設定値が「他のユーザの実空間をベース空間として利用する」または「どちらでもよい」である場合には、追加参加処理部402は、現在のベース空間を変更しないことを決定する。または、ベース空間選択設定テーブル170において当該ユーザ4aに関連付けて、希望のベース空間の候補が登録されている場合で、かつ、当該希望のベース空間の候補の中に、当該共有空間に対応するベース空間が存在する場合には、追加参加処理部402は、現在のベース空間を変更しないことを決定する。つまり、現在のベース空間が優先される。これにより、ベース空間が頻繁に切り替わることが回避されるので、共有空間に参加中のユーザの活動に影響が生じることを抑制することができる。なお、この際、当該共有空間への当該ユーザ4aの参加は許可され得る。
 また、ベース空間選択設定テーブル170において当該ユーザ4aに関連付けられている、希望のベース空間の候補の中に、当該共有空間に対応するベース空間が存在しない場合には、追加参加処理部402は、当該共有空間に参加中の全てのユーザ4bに対する、ベース空間の切り替えに関する問い合わせに対する回答に基いて、現在のベース空間を変更するか否かを決定してもよい。例えば、追加参加処理部402は、まず、ベース空間選択設定テーブル170において当該ユーザ4aに関連付けられている、希望する一以上のベース空間の候補を、当該共有空間に参加中の全てのユーザ4bに提示する。そして、当該一以上のベース空間の候補のうちのいずれかにベース空間を切り替えることを全てのユーザ4bが合意した場合に限り、追加参加処理部402は、現在のベース空間を、該当のベース空間の候補に切り替えることを決定してもよい。
 ‐決定例2
 また、追加参加処理部402は、参加時ベース空間切り替え設定テーブル172において、当該共有空間に参加中の全てのユーザ4bの各々に関連付けられている設定値に基いて、現在のベース空間を変更するか否かを決定することも可能である。例えば、参加時ベース空間切り替え設定テーブル172において、当該共有空間に参加中の全てのユーザ4bの各々に関連付けられている設定値のうちの少なくとも一以上が「ベース空間の切り替えを許可しない」である場合には、追加参加処理部402は、現在のベース空間を変更しないことを決定する。また、参加時ベース空間切り替え設定テーブル172において当該共有空間に参加中の全てのユーザ4bの各々に関連付けられている設定値の全てが「ベース空間の切り替えを許可する」である場合には、追加参加処理部402は、上述したような、当該共有空間に参加中の全てのユーザ4bに対する、ベース空間の切り替えに関する問い合わせに対する回答に基いて、現在のベース空間を変更するか否かを決定してもよい。この決定例2によれば、他のユーザが共有空間に参加を希望する場合に、当該共有空間にすでに参加中の各ユーザが、ベース空間の切り替えの是非に関する回答を毎回要求されることを回避することが可能となる。このため、各ユーザの負担が軽減される。
 ‐‐参加時ベース空間切り替え設定テーブル172
 参加時ベース空間切り替え設定テーブル172は、別のユーザが共有空間に新たに参加しようとする際の、ベース空間の切り替えを許可するか否かに関する設定情報が格納されるテーブルである。例えば、参加時ベース空間切り替え設定テーブル172では、ユーザIDと設定値とが関連付けられていてもよいし、実空間と設定値とが関連付けられていてもよいし、または、ユーザID、実空間、および、設定値が関連付けられていてもよい。ここで、当該設定値には、例えば「ベース空間の切り替えを許可する」、および、「ベース空間の切り替えを許可しない」などが登録され得る。
 (2-1-4-2.新たなユーザへの権限の付与)
 また、当該共有空間に新たなユーザ4aの参加を許可した際には、追加参加処理部402は、当該ベース空間中のオブジェクトのアクセス権限を当該新たなユーザ4aに付与したり、上述した再生用情報を当該新たなユーザ4aに提供することが可能である。なお、具体的な内容については、上述した開始処理部400と概略同様である。
 {2-1-5.終了処理部404}
 (2-1-5-1.自由視点のコンテンツの生成可否)
 終了処理部404は、本開示における利用制限部の一例である。終了処理部404は、自由視点のコンテンツを共有しているユーザ4aによる当該自由視点のコンテンツの利用の終了を示す情報が取得された場合に、設定情報DB160の登録内容に基づいて、当該自由視点のコンテンツを共有している他のユーザ4bによる当該自由視点のコンテンツの利用に関する制限を設定する。ここで、当該自由視点のコンテンツの利用に関する制限は、当該自由視点のコンテンツに対応するベース空間および/または当該ベース空間内のオブジェクトの利用に関する制限を含み得る。
 例えば、終了処理部404は、当該コンテンツの利用を終了するための操作を行ったユーザ4a(以下、退出ユーザ4aと称する)が位置する実空間と当該ベース空間とが同一であるか否かの判定結果に基いて、当該他のユーザ4bによる当該自由視点のコンテンツの利用に関する制限を設定する。一例として、退出ユーザ4aが位置する実空間と当該ベース空間とが同一であると判定された場合には、終了処理部404は、設定情報DB160内の退出時ベース空間切り替え設定テーブル174の登録内容に基いて、当該ベース空間を変更するか否かを決定する。例えば、終了処理部404は、退出時ベース空間切り替え設定テーブル174において退出ユーザ4a(または退出ユーザ4aが位置する実空間)に関連付けられている設定値に基いて、当該ベース空間を変更するか否かを決定する。
 また、退出ユーザ4aが位置する実空間と当該ベース空間とが同一ではないと判定された場合には、終了処理部404は、当該ベース空間を変更しないことを決定する。
 (2-1-5-2.退出時ベース空間切り替え設定テーブル174)
 退出時ベース空間切り替え設定テーブル174は、例えばベース空間と同一の実空間内に位置するユーザ4が共有空間から退出する際のベース空間の変更に関する設定情報が格納されるテーブルである。例えば、退出時ベース空間切り替え設定テーブル174では、ユーザIDと設定値とが関連付けられていてもよいし、実空間と設定値とが関連付けられていてもよいし、または、ユーザID、実空間、および、設定値が関連付けられていてもよい。
 ここで、当該設定値には、例えば「ベース空間との接続を削除」、「ベース空間にリアルタイムにアクセス可能な状態を維持」、および、「退出時のベース空間をそのまま維持」などが登録され得る。
 一例として、退出時ベース空間切り替え設定テーブル174において退出ユーザ4aに関連付けられている設定値が「ベース空間にリアルタイムにアクセス可能な状態を維持」である場合には、終了処理部404は、現在のベース空間を変更しないことを決定する。
 また、退出時ベース空間切り替え設定テーブル174において退出ユーザ4aに関連付けられている設定値が「ベース空間との接続を削除」である場合には、終了処理部404は、当該ベース空間を変更することを決定し、そして、退出時ベース空間切り替え設定テーブル174において、当該自由視点のコンテンツを共有している他のユーザ4bの各々に関連付けられている設定値に基いて、新たなベース空間を決定する。例えば、この場合、終了処理部404は、まず、ベース空間選択設定テーブル170において、当該他のユーザ4bの各々に関連付けられている、希望のベース空間の候補同士を比較し、そして、一致したベース空間の候補を新たなベース空間として決定する。なお、この際、変更前のベース空間中の(現実の)機器に関して当該他のユーザ4bの各々に付与されていたアクセス権は全て剥奪され得る。
 また、退出時ベース空間切り替え設定テーブル174において退出ユーザ4aに関連付けられている設定値が「退出時のベース空間をそのまま維持」である場合には、終了処理部404は、現在のベース空間との接続を切断し、かつ、当該ベース空間を仮想オブジェクトとして保存し得る。例えば、この場合、終了処理部404は、まず、新たに仮想空間を設け、そして、現在のベース空間上のオブジェクトを当該仮想空間上にコピーする。次に、終了処理部404は、当該ベース空間上で再生され得る全ての共有コンテンツを当該仮想空間上のオブジェクトに関連付ける。(これにより、当該全ての共有コンテンツの管理権が当該仮想空間上のオブジェクトに関連付けられる。)そして、終了処理部404は、後述する退出時共有コンテンツアクセス権変更設定テーブル178において退出ユーザ4に関連付けられている設定値に基づいて、当該全ての共有コンテンツの再生用情報への、当該共有空間に参加中の他のユーザ4bのアクセス権を変更する。
 (2-1-5-3.機器のアクセス権の変更)
 また、現在のベース空間を変更しないことを決定した場合には、終了処理部404は、設定情報DB160内の退出時機器アクセス権変更設定テーブル176の登録内容に基づいて、共有空間に参加中の他のユーザ4bの、当該ベース空間中の一以上のオブジェクトのアクセス権限を変更することが可能である。
 -退出時機器アクセス権変更設定テーブル176
 退出時機器アクセス権変更設定テーブル176は、例えばベース空間と同一の実空間内に位置するユーザ4aが共有空間から退出する際の、当該ベース空間中の機器に関する他のユーザ4bのアクセス権の変更に関する設定情報が格納されるテーブルである。例えば、退出時機器アクセス権変更設定テーブル176では、ユーザIDと設定値とが関連付けられていてもよいし、または、実空間と設定値とが関連付けられていてもよい。後者の場合、例えば、実空間が「リビングルーム」である場合には「アクセス権を全て剥奪する」が設定され、また、実空間が「会議室」である場合には「アクセス権をそのまま残す」が設定されてもよい。このように、場所に応じてプライバシーの保護のレベルをカスタマイズすることができる。あるいは、退出時機器アクセス権変更設定テーブル176では、ユーザID、実空間、および、設定値が関連付けられていてもよい。
 ここで、当該設定値には、例えば「アクセス権をそのまま残す」、「アクセス権を全て剥奪する」、および、「機器ごとにアクセス権を剥奪するか否かを指定する」などが登録され得る。この場合、ベース空間選択設定テーブル170において退出ユーザ4aに関連付けられている設定値が「アクセス権を全て剥奪する」である場合には、終了処理部404は、退出ユーザ4aが共有空間から退出した後(つまり、退出ユーザ4aが当該自由視点のコンテンツの利用を終了した後)の、当該共有空間に参加中の他のユーザ4bの、当該ベース空間中の全ての機器に対するアクセスを禁止するように、当該他のユーザ4bのアクセス権を変更する。
 (2-1-5-4.共有コンテンツのアクセス権の変更)
 また、退出時ベース空間切り替え設定テーブル174において退出ユーザ4に関連付けられている設定値が「退出時のベース空間をそのまま維持」である場合には、終了処理部404は、設定情報DB160内の退出時共有コンテンツアクセス権変更設定テーブル178の登録内容に基づいて、当該共有空間に参加中の他のユーザ4bの、変更前のベース空間上で再生され得る共有コンテンツ(例えばVideo Streamingコンテンツなど)へのアクセス権を変更する。
 -退出時共有コンテンツアクセス権変更設定テーブル178
 退出時共有コンテンツアクセス権変更設定テーブル178は、例えばベース空間と同一の実空間内に位置する退出ユーザ4aが共有空間から退出する際の、当該ベース空間上で再生されていた共有コンテンツに関する他のユーザ4bのアクセス権の変更に関する設定情報が格納されるテーブルである。例えば、退出時共有コンテンツアクセス権変更設定テーブル178では、ユーザIDと設定値とが関連付けられていてもよいし、実空間と設定値とが関連付けられていてもよいし、または、ユーザID、実空間、および、設定値が関連付けられていてもよい。
 ここで、当該設定値には、例えば「アクセス権をそのまま残す」、「アクセス権を全て剥奪する」、および、「コンテンツごとにアクセス権を剥奪するか否かを指定する」などが登録され得る。例えば、退出ユーザ4aに関連付けてベース空間選択設定テーブル170に登録されている設定値が「アクセス権を全て剥奪する」である場合には、終了処理部404は、退出ユーザ4aが共有空間から退出した後の、当該ベース空間上で再生され得る全ての共有コンテンツに対する、当該共有空間に参加中の他のユーザ4bのアクセスを禁止するように、当該他のユーザ4bのアクセス権を変更する。
 {2-1-6.コンテンツ処理部406}
 (2-1-6-1.オブジェクトの追加時)
 コンテンツ処理部406は、生成された自由視点のコンテンツに対応する共有空間への新たなユーザの参加や当該共有空間からのユーザの退出に基づく当該自由視点のコンテンツの変化を知覚可能なように、当該自由視点のコンテンツを加工する。例えば、新たなオブジェクト(ユーザ4を含む)が共有空間内に配置されることが決定された場合(例えば新たなユーザが当該共有空間に参加する場合など)には、コンテンツ処理部406は、当該新たなオブジェクトが表示されることを、当該共有空間に参加中のユーザが知覚可能なように、当該自由視点のコンテンツを加工する。一例として、コンテンツ処理部406は、当該新たなオブジェクトの表示が開始されることを示す、所定の時間(例えば1分など)のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。
 ここで、図11~図13を参照して、上記の機能についてより詳細に説明する。なお、図11~図13では、時間の経過に応じて、共有空間40a、共有空間40b、共有空間40cの順に、共有空間40が生成される例をそれぞれ示している。例えば、新たなオブジェクト42cの表示が開始される場合には、コンテンツ処理部406は、まず、透過度が初期値(例えば100%)に設定された、当該新たなオブジェクト42cを表示させ、そして、図11に示したように、当該新たなオブジェクト42cの透過度を当該初期値から0%へと所定の時間をかけて徐々に下げる処理を行う。または、コンテンツ処理部406は、図12に示したように、新たなオブジェクト42cの表示を開始してから所定の時間だけ、当該新たなオブジェクト42cの周囲にパーティクル44を表示させるように、当該自由視点のコンテンツを加工する。または、コンテンツ処理部406は、図13に示したように、小さなパーティクル群46が共有空間40の外部から飛んできて、パーティクル群46が共有空間40内で徐々に大きくなった後に、当該パーティクル群46がオブジェクト42cの表示に切り替わるアニメーションを表示させるように、当該自由視点のコンテンツを加工する。これらの処理例によれば、例えば新たなオブジェクト(新たなユーザなど)が共有空間に配置される場合に、当該オブジェクトが突然表示されることがない。このため、共有空間にすでに参加中の各ユーザが違和感を抱いたり、驚くことを防止することができる。
 また、コンテンツ処理部406は、新たなオブジェクトが表示されるタイミングに所定の効果音を出力させるように、当該自由視点のコンテンツを加工してもよい。
 (2-1-6-2.オブジェクトの削除時)
 また、当該共有空間内の一以上のオブジェクト(ユーザ4を含む)が当該共有空間から削除されることが決定された場合(例えば共有空間に参加中のユーザが共有空間から退出する際など)には、コンテンツ処理部406は、該当のオブジェクトが削除されることを、当該共有空間に参加中のユーザが知覚可能なように、当該自由視点のコンテンツを加工する。例えば、コンテンツ処理部406は、該当のオブジェクトの表示が終了されることを示す、所定の時間(例えば1分など)のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。
 ここで、図14~図16を参照して、上記の機能についてより詳細に説明する。なお、図14~図16では、時間の経過に応じて、共有空間40a、共有空間40b、共有空間40cの順に、共有空間40が生成される例をそれぞれ示している。例えば、オブジェクト42cが削除されることが決定された場合には、コンテンツ処理部406は、図14に示したように、オブジェクト42cの透過度が0%から100%へと徐々に上がり、その後、オブジェクト42cが非表示になるようなアニメーションを表示させるように、当該自由視点のコンテンツを加工する。または、コンテンツ処理部406は、図15に示したように、削除対象のオブジェクト42cの周囲にパーティクル44が所定の時間だけ表示され、その後、オブジェクト42cが非表示になるようなアニメーションを表示させるように、当該自由視点のコンテンツを加工する。または、コンテンツ処理部406は、図16に示したように、削除対象のオブジェクト42cがパーティクル群46に変形し、かつ、パーティクル群46のサイズが徐々に小さくなりながら共有空間40の外部へと飛んでいき、その後、パーティクル群46が消滅するようなアニメーションを表示させるように、当該自由視点のコンテンツを加工する。これらの処理例によれば、共有空間に配置されている削除対象のオブジェクト(退出ユーザ4など)が突然非表示になることがない。このため、共有空間にすでに参加中の各ユーザが違和感を抱いたり、驚くことを防止することができる。
 また、コンテンツ処理部406は、削除対象のオブジェクトが非表示になるタイミングに所定の効果音を出力させるように、当該自由視点のコンテンツを加工してもよい。
 (2-1-6-3.ベース空間の切り替え時)
 また、追加参加処理部402または終了処理部404によりベース空間を切り替えることが決定された場合には、コンテンツ処理部406は、当該ベース空間が切り替えられることを、当該共有空間に参加中のユーザが知覚可能なように、当該自由視点のコンテンツを加工する。例えば、コンテンツ処理部406は、当該ベース空間が切り替わることを示す、所定の時間(例えば10秒など)のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。
 ここで、図17および図18を参照して、上記の機能についてより詳細に説明する。なお、図17および図18では、時間の経過に応じて、共有空間40a、共有空間40b(および、共有空間40c)の順に、共有空間40が生成される例をそれぞれ示している。例えば、ベース空間を切り替えることが決定された場合には、コンテンツ処理部406は、図17に示したように、まず、透過度が初期値(例えば100%)に設定された、変更後のベース空間を、変更前のベース空間に重畳して表示させる。そして、コンテンツ処理部406は、所定の時間をかけて、当該変更前のベース空間の透過度を0%から100%へと徐々に上げ、かつ、当該変更後のベース空間の透過度を初期値から0%へと徐々に下げる処理を行う。なお、図17では、オブジェクト42cが当該変更前のベース空間内に位置しており、かつ、オブジェクト42dが当該変更後のベース空間内に位置していることを示している。
 また、図18に示したように、コンテンツ処理部406は、ベース空間の変更前後で共に表示されるオブジェクト全て(例えば、ベース空間の変更後に共有空間内に残るユーザなど)が変更前のベース空間から変更後のベース空間へと飛んで移動するようなアニメーションを表示させるように、当該自由視点のコンテンツを加工してもよい。これらの処理例によれば、ベース空間が切り替えられる場合に、該当の自由視点のコンテンツの映像がシームレスに知覚されるように表示される。このため、共有空間にすでに参加中の各ユーザが違和感を抱いたり、驚くことを防止することができる。
 また、コンテンツ処理部406は、ベース空間の切り替えのタイミングに、所定の効果音を出力させるように、当該自由視点のコンテンツを加工してもよい。
 <2-2.処理の流れ>
 以上、本実施形態による構成について説明した。次に、本実施形態による処理の流れについて、「2-2-1.空間共有の開始時の処理の流れ」~「2-2-3.退出時の処理の流れ」において説明する。
 {2-2-1.空間共有の開始時の処理の流れ}
 まず、図19および図20を参照して、「空間共有の開始時の処理の流れ」について説明する。図19に示したように、まず、実空間2a内に位置するユーザ4aが、例えば実空間2b内に位置するユーザ4bを指定することにより、空間共有を開始するための操作を行う。そして、実空間2a内の入力部22a(センサ部220)は、当該操作が行われたことを検出し、そして、検出結果をサーバ10へ送信する(S101)。
 その後、当該検出結果が受信されると、サーバ10の開始処理部400は、ベース空間選択設定テーブル170においてユーザ4aに関連付けられている設定値をベース空間選択設定テーブル170から抽出する(S103)。また、開始処理部400は、ベース空間選択設定テーブル170において相手のユーザ4bに関連付けられている設定値をベース空間選択設定テーブル170から抽出する(S105)。
 続いて、開始処理部400は、S103で抽出された設定値と、S105で抽出された設定値とに基いて、選択可能なベース空間の候補を特定し、そして、特定したベース空間の候補のリストを生成する(S107)。
 S107においてベース空間の候補が全く特定されなかった場合には(S109:No)、開始処理部400は、自由視点のコンテンツを生成しないことを決定する。そして、サーバ10は、エラーを示す情報を実空間2a内の出力部24a(例えば表示部246)に出力させる(S111)。なお、サーバ10は、エラーを示す情報を実空間2b内の出力部24bにさらに出力させてもよい。その後、当該「空間共有の開始時の処理」は終了する。
 一方、ベース空間の候補が一つだけ特定された場合には(S109:Yes、S113:No)、開始処理部400は、後述するS121の処理を行う。
 一方、ベース空間の候補が複数特定された場合には(S109:Yes、S113:Yes)、開始処理部400は、S107で生成したベース空間の候補のリストを出力部24a(例えば表示部246)に提示させ、そして、希望するベース空間の候補をユーザ4aに選択させる(S115)。なお、変形例として、開始処理部400は、ユーザ4aおよびユーザ4bに対して当該リストを提示させ、そして、希望するベース空間の候補を当該二人のユーザの各々に選択させてもよい。
 ここで、図20を参照して、S115よりも後の処理について説明する。S115の後、開始処理部400は、S115で選択されたベース空間の候補、または、S107で特定されたベース空間の候補をベース空間として決定する(S121)。
 続いて、開始処理部400は、実空間2aおよび実空間2bのうち当該ベース空間とは異なる実空間と、S121で決定したベース空間とに基いて共有空間を生成する(S123)。そして、開始処理部400は、生成した共有空間に基いて自由視点のコンテンツを生成する(S125)。
 続いて、開始処理部400は、S121で決定したベース空間上の機器のアクセス権を、当該ベース空間とは異なる実空間内に位置するユーザ4に対して付与する(S127)。
 続いて、開始処理部400は、S121で決定したベース空間上で再生され得る共有コンテンツのアクセス権を、当該ベース空間とは異なる実空間内に位置するユーザ4に対して付与する(S129)。その後、当該「空間共有の開始時の処理」は終了する。
 {2-2-2.共有空間への追加参加時の処理の流れ}
 次に、図21を参照して、「共有空間への追加参加時の処理の流れ」について説明する。なお、ここでは、実空間2c内に位置しており、かつ、共有空間に未参加であるユーザ4cが、共有空間への参加を希望する場面における処理の流れの一例について説明する。
 図21に示したように、まず、ユーザ4cが、参加を希望する共有空間へ新規参加するための操作を行う。そして、実空間2c内の入力部22c(センサ部220)は、当該操作が行われたことを検出し、そして、検出結果をサーバ10へ送信する(S201)。
 その後、当該検出結果が受信されると、サーバ10の追加参加処理部402は、ベース空間選択設定テーブル170において、ユーザ4cに関連付けられている設定値をベース空間選択設定テーブル170から抽出する(S203)。
 続いて、追加参加処理部402は、S203で抽出された設定値が「自分の実空間をベース空間として利用する」であるか否かを判定する(S205)。当該設定値が「自分の実空間をベース空間として利用する」ではない場合には(S205:No)、追加参加処理部402は、該当の共有空間に対応するベース空間を変更しないことを決定する(S207)。その後、追加参加処理部402は、後述するS219の処理を行う。
 一方、当該設定値が「自分の実空間をベース空間として利用する」である場合には(S205:Yes)、追加参加処理部402は、参加時ベース空間切り替え設定テーブル172において、該当の共有空間に参加中の各ユーザに関連付けられている設定値を参加時ベース空間切り替え設定テーブル172からそれぞれ抽出する(S209)。
 続いて、追加参加処理部402は、S209で抽出された、全てのユーザに関する設定値が「ベース空間の切り替えを許可する」であるか否かを判定する(S211)。少なくとも一以上のユーザに関する設定値が「ベース空間の切り替えを許可する」ではない場合には(S211:No)、追加参加処理部402は、現在のベース空間を切り替えないこと、および、当該共有空間へのユーザ4cの参加を許可しないことを決定する。そして、サーバ10は、エラーを示す情報を実空間2c内の出力部24c(例えば表示部246)に出力させる(S213)。その後、当該「共有空間への追加参加時の処理」は終了する。
 一方、全てのユーザに関する設定値が「ベース空間の切り替えを許可する」である場合には(S211:Yes)、追加参加処理部402は、現在のベース空間を(ユーザ4cが位置する)実空間2cに切り替えることを決定する(S215)。
 続いて、コンテンツ処理部406は、当該ベース空間が切り替わることを示す、所定の時間のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。これにより、当該共有空間に参加中の各ユーザ4が位置する実空間2内の出力部24(表示部246)は当該アニメーションを表示する(S217)。
 その後、コンテンツ処理部406は、当該共有空間内に新たに配置されることが決定された全てのオブジェクト(ユーザ4cを含む)の表示が開始されることを示す、所定の時間のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。これにより、当該共有空間に参加中の各ユーザ4が位置する実空間2内の出力部24(表示部246)は当該アニメーションを表示する(S219)。その後、当該「共有空間への追加参加時の処理」は終了する。
 {2-2-3.退出時の処理の流れ}
 次に、図22~図24を参照して、「退出時の処理の流れ」について説明する。なお、ここでは、共有空間に3人以上のユーザが参加している場合において、当該3人以上のユーザのうちのいずれかが当該共有空間から退出する場面における処理の流れの一例について説明する。
 図22に示したように、まず、生成済みの共有空間に参加中のいずれかのユーザ4cが当該共有空間から退出するための操作を行う。そして、(ユーザ4cが位置する)実空間2c内の入力部22c(センサ部220)は、当該操作が行われたことを検出し、そして、検出結果をサーバ10へ送信する(S301)。
 その後、サーバ10の終了処理部404は、当該共有空間に対応するベース空間と実空間2cとが同一であるか否かを判定する(S303)。当該ベース空間と実空間2cとが異なる場合には(S303:No)、サーバ10は、後述するS353の処理を行う。
 一方、当該ベース空間と実空間2cとが同一である場合には(S303:Yes)、終了処理部404は、退出時ベース空間切り替え設定テーブル174においてユーザ4cに関連付けられている設定値を退出時ベース空間切り替え設定テーブル174から抽出する(S305)。
 抽出された設定値が「ベース空間との接続を削除」である場合には、終了処理部404は、まず、現在のベース空間との接続を削除する(S307)。次に、終了処理部404は、ベース空間選択設定テーブル170において当該共有空間に参加中の各ユーザに関連付けられている設定値に基いて、新たなベース空間を決定する(S309)。そして、終了処理部404は、決定したベース空間に新たに接続すること(切り替えること)を決定する(S311)。その後、サーバ10は、後述するS331の処理を行う。
 一方、S305において抽出された設定値が「ベース空間にリアルタイムにアクセス可能な状態を維持」である場合には、終了処理部404は、現在のベース空間との接続を維持すること(つまり、ベース空間を切り替えないこと)を決定する(S313)。その後、サーバ10は、後述するS333の処理を行う。
 一方、S305において抽出された設定値が「退出時のベース空間をそのまま維持」である場合には、終了処理部404は、まず、仮想のベース空間を生成する(S315)。次に、終了処理部404は、現在のベース空間上の全てのオブジェクトを、生成した仮想のベース空間上にコピーする(S317)。次に、終了処理部404は、現在のベース空間との接続を削除する(S319)。そして、終了処理部404は、当該仮想のベース空間を新たなベース空間として設定する(S321)。その後、終了処理部404は、後述するS333の処理を行う。
 ここで、図23を参照して、S311より後の処理の流れについて説明する。図23に示したように、S311の後、サーバ10のコンテンツ処理部406は、ベース空間が切り替わることを示す、所定の時間のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。これにより、当該共有空間に参加中の各ユーザ4が位置する実空間2内の出力部24(表示部246)は当該アニメーションを表示する(S331)。
 その後、コンテンツ処理部406は、当該共有空間から削除されることが決定された全てのオブジェクト(ユーザ4cを含む)の表示が終了されることを示す、所定の時間のアニメーションを表示させるように、当該自由視点のコンテンツを加工する。これにより、当該共有空間に参加中の各ユーザ4が位置する実空間2内の出力部24(表示部246)は当該アニメーションを表示する(S333)。
 ここで、図24を参照して、S333より後の処理の流れについて説明する。図24に示したように、S333の後、終了処理部404は、退出時機器アクセス権変更設定テーブル176においてユーザ4cに関連付けられている設定値を退出時機器アクセス権変更設定テーブル176から抽出する(S341)。
 続いて、終了処理部404は、S341で抽出された設定値が「アクセス権を全て剥奪する」であるか否かを判定する(S343)。当該設定値が「アクセス権を全て剥奪する」ではない場合には(S343:No)、終了処理部404は、後述するS347の処理を行う。
 一方、当該設定値が「アクセス権を全て剥奪する」である場合には(S343:Yes)、終了処理部404は、当該共有空間に参加中の各ユーザ4の、変更前のベース空間上の全ての機器に対するアクセスを禁止するように、各ユーザ4のアクセス権を変更する(S345)。
 続いて、終了処理部404は、退出時共有コンテンツアクセス権変更設定テーブル178において、ユーザ4cに関連付けられている設定値を退出時共有コンテンツアクセス権変更設定テーブル178から抽出する(S347)。
 続いて、終了処理部404は、S347で抽出された設定値が「アクセス権を全て剥奪する」であるか否かを判定する(S349)。当該設定値が「アクセス権を全て剥奪する」ではない場合には(S349:No)、当該「退出時の処理」は終了する。
 一方、当該設定値が「アクセス権を全て剥奪する」である場合には(S349:Yes)、終了処理部404は、当該共有空間に参加中の各ユーザ4の、変更前のベース空間上で再生され得る全ての共有コンテンツに対するアクセスを禁止するように、各ユーザ4のアクセス権を変更する(S351)。その後、当該「退出時の処理」は終了する。
 また、図24に示したように、S303において現在のベース空間と実空間2cとが異なる場合には(S303:No)、サーバ10は、上述したS333と概略同様に、削除対象のオブジェクトの表示が終了することを示すアニメーションの表示制御を行う(S353)。その後、当該「退出時の処理」は終了する。
 (変形例)
 なお、上記の説明では、三人以上が共有空間に参加している場面における処理の例について説明したが、かかる例に限定されず、二人だけが共有空間に参加している場合に関しても、上述した「退出時の処理の流れ」は同様に適用されてもよい。つまり、あるユーザが退出後の共有空間に残りの一人のユーザが参加し続ける場合に関しても、同様の処理が適用され得る。あるいは、この場合には、サーバ10は、空間共有自体を終了してもよい。つまり、サーバ10は、全てのクライアント20に対する自由視点のコンテンツの配信を終了してもよい。
 <2-3.効果>
 {2-3-1.効果1}
 以上説明したように、本実施形態によれば、サーバ10は、ユーザによる自由視点のコンテンツの利用の開始または終了を示す情報が取得された場合に、コンテンツの利用開始または利用終了に関する設定情報に基づいて、当該自由視点のコンテンツの利用に関する設定を変更する。例えば、ユーザによる自由視点のコンテンツの利用の終了を示す情報が取得された場合には、サーバ10は、設定情報DB160の登録内容に基いて、当該自由視点のコンテンツの利用に関する制限を設定する。これにより、ユーザがコンテンツの利用を終了する場面において、当該コンテンツの利用を適切に制限することができる。
 例えば、ユーザが共有空間から退出する場合に、サーバ10は、設定情報DB160において当該ユーザ(または当該ユーザが位置する実空間)に関連付けられている設定値通りに、当該共有空間を共有している他のユーザによる当該コンテンツの利用を制限することができる。また、ユーザは、共有空間から退出した際における共有空間の設定に関して、設定情報DB160に所望の値を予め登録しておくことができる。従って、共有空間からユーザが退出した後も、当該ユーザのプライバシーが適切に保護される。
 {2-3-2.効果2}
 また、サーバ10は、当該共有空間に参加中の各ユーザの、当該ベース空間上の機器や共有コンテンツのアクセス権を統一的に管理することができる。例えば、新たなユーザが共有空間へ参加したり、共有空間からユーザが退出することによりベース空間が次々に切り替わることも生じ得るが、このような場合であっても、サーバ10は、機器や共有コンテンツに対する各ユーザのアクセス権をシームレスに管理(変更)することができる。
<<3.ハードウェア構成>>
 次に、本実施形態によるサーバ10のハードウェア構成について、図25を参照して説明する。図25に示すように、サーバ10は、CPU900、ROM(Read Only Memory)902、RAM904、バス906、インターフェース908、ストレージ装置910、および通信装置912を備える。
 CPU900は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ10内の動作全般を制御する。なお、CPU900は、マイクロプロセッサなどのプロセッサにより構成される。CPU900は、サーバ10において、共有空間管理部100、ストリーム分離部124、および、ストリーム生成部130として機能し得る。
 ROM902は、CPU900が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
 RAM904は、例えば、CPU900により実行されるプログラムなどを一時的に記憶する。
 バス906は、CPUバスなどから構成される。このバス906は、CPU900、ROM902、およびRAM904を相互に接続する。
 インターフェース908は、ストレージ装置910、および通信装置912を、バス906と接続する。
 ストレージ装置910は、データ格納用の装置である。ストレージ装置910は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。ストレージ装置910は、サーバ10において、共有空間FrameデータDB156、および、設定情報DB160として機能し得る。
 通信装置912は、例えば通信網26などに接続するための通信デバイス(例えばネットワークカードなど)等で構成された通信インターフェースである。また、通信装置912は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。通信装置912は、サーバ10において、制御情報送信部122、受信部126、制御情報受信部128、および、送信部132として機能し得る。
<<4.変形例>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述した実施形態では、本開示における情報処理装置がサーバ10である例について説明したが、かかる例に限定されない。例えば、当該情報処理装置は、汎用PC、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、携帯型音楽プレーヤ、ロボット、または、例えばHMDやARグラスなどのウェアラブルデバイスであってもよい。
 また、上述した実施形態の処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
 また、上述した実施形態によれば、CPU900、ROM902、およびRAM904などのハードウェアを、上述した実施形態によるサーバ10の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、当該コンピュータプログラムが記録された記録媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得する取得部と、
 前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限を設定する利用制限部と、
を備える、情報処理装置。
(2)
 前記自由視点のコンテンツは、前記第1のユーザが位置する第1の実空間のセンシングと、前記第2のユーザが位置する第2の実空間のセンシングとに基いて提供されたコンテンツである、前記(1)に記載の情報処理装置。
(3)
 前記利用制限部は、前記第1のユーザによる前記自由視点のコンテンツの利用終了後の、前記自由視点のコンテンツの利用に関する制限を、前記利用の終了を示す情報と前記第1の設定情報とに基づいて設定する、前記(2)に記載の情報処理装置。
(4)
 前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報とに基づいて、前記第2のユーザによる前記自由視点のコンテンツの利用に関する制限を設定する、前記(2)または(3)に記載の情報処理装置。
(5)
 前記第1の設定情報は、前記第1の実空間に関連付けられている、前記(2)~(4)のいずれか一項に記載の情報処理装置。
(6)
 前記第1の設定情報は、前記第1のユーザに関連付けられている、前記(2)~(5)のいずれか一項に記載の情報処理装置。
(7)
 前記第1の設定情報は、前記自由視点のコンテンツの利用終了時の設定情報である、前記(2)~(6)のいずれか一項に記載の情報処理装置。
(8)
 前記自由視点のコンテンツの利用に関する制限は、前記自由視点のコンテンツに関連付けられているベース空間および/または前記ベース空間内のオブジェクトの利用に関する制限を含み、
 前記ベース空間は、前記第1の実空間および前記第2の実空間を含む複数の実空間のうちのいずれかに基いた空間である、前記(2)~(7)のいずれか一項に記載の情報処理装置。
(9)
 前記ベース空間内のオブジェクトの利用に関する制限は、前記ベース空間内のオブジェクトに対するアクセスに関する制限を含む、前記(8)に記載の情報処理装置。
(10)
 前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記ベース空間に関する設定を変更する、前記(8)または(9)に記載の情報処理装置。
(11)
 前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記自由視点のコンテンツに関連付けられるベース空間を第1のベース空間から第2のベース空間へ切り替える、前記(10)に記載の情報処理装置。
(12)
 前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記自由視点のコンテンツと前記第1のベース空間との関連付けを削除し、かつ、前記自由視点のコンテンツに前記第2のベース空間を関連付けることにより、前記第1のベース空間から前記第2のベース空間へ切り替える、前記(11)に記載の情報処理装置。
(13)
 前記利用制限部は、前記第2の実空間または前記第2のユーザに関連付けられている第2の設定情報に基づいて、前記複数の実空間のうちのいずれかを前記第2のベース空間として決定する、前記(11)または(12)に記載の情報処理装置。
(14)
 前記情報処理装置は、前記自由視点のコンテンツに関連付けられる前記ベース空間が前記第1のベース空間から前記第2のベース空間へ切り替えられる場合に、前記第1のベース空間から前記第2のベース空間へと連続的に変更されることを示すように前記自由視点のコンテンツを加工するコンテンツ処理部をさらに備える、前記(11)~(13)のいずれか一項に記載の情報処理装置。
(15)
 前記ベース空間内のオブジェクトは、機器を含み、
 前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記第2のユーザの、前記機器に対するアクセス権限を変更する、前記(8)または(9)に記載の情報処理装置。
(16)
 前記ベース空間内のオブジェクトは、コンテンツを含み、
 前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記第2のユーザの、前記コンテンツに対するアクセス権限を変更する、前記(8)または(9)に記載の情報処理装置。
(17)
 前記利用制限部は、前記第1の設定情報が示す、前記ベース空間内の一以上のオブジェクトを前記ベース空間から削除する、前記(8)に記載の情報処理装置。
(18)
 前記情報処理装置は、前記ベース空間内の一以上のオブジェクトが前記ベース空間から削除される場合に、前記自由視点のコンテンツにおける、前記一以上のオブジェクトの表示態様を連続的に変更するコンテンツ処理部をさらに備える、前記(17)に記載の情報処理装置。
(19)
 実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得することと、
 前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限をプロセッサが設定することと、
を含む、情報処理方法。
(20)
 コンピュータを、
 実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得する取得部と、
 前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限を設定する利用制限部、
として機能させるための、プログラム。
10 サーバ
20 クライアント
22 入力部
24 出力部
26 通信網
100 共有空間管理部
102 共有空間生成部
104、224、250 認識部
106 イベント認識部
108 制御部
120 クライアント接続部
122、252 制御情報送信部
124、242 ストリーム分離部
126、240 受信部
128、222 制御情報受信部
130、226 ストリーム生成部
132、228 送信部
150 同期部
152 共有空間合成部
154 配信部
156 共有空間FrameデータDB
160 設定情報DB
220、248 センサ部
226 ストリーム生成部
228 送信部
244 合成部
246 表示部
400 開始処理部
402 追加参加処理部
404 終了処理部
406 コンテンツ処理部

Claims (20)

  1.  実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得する取得部と、
     前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限を設定する利用制限部と、
    を備える、情報処理装置。
  2.  前記自由視点のコンテンツは、前記第1のユーザが位置する第1の実空間のセンシングと、前記第2のユーザが位置する第2の実空間のセンシングとに基いて提供されたコンテンツである、請求項1に記載の情報処理装置。
  3.  前記利用制限部は、前記第1のユーザによる前記自由視点のコンテンツの利用終了後の、前記自由視点のコンテンツの利用に関する制限を、前記利用の終了を示す情報と前記第1の設定情報とに基づいて設定する、請求項2に記載の情報処理装置。
  4.  前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報とに基づいて、前記第2のユーザによる前記自由視点のコンテンツの利用に関する制限を設定する、請求項2に記載の情報処理装置。
  5.  前記第1の設定情報は、前記第1の実空間に関連付けられている、請求項2に記載の情報処理装置。
  6.  前記第1の設定情報は、前記第1のユーザに関連付けられている、請求項2に記載の情報処理装置。
  7.  前記第1の設定情報は、前記自由視点のコンテンツの利用終了時の設定情報である、請求項2に記載の情報処理装置。
  8.  前記自由視点のコンテンツの利用に関する制限は、前記自由視点のコンテンツに関連付けられているベース空間および/または前記ベース空間内のオブジェクトの利用に関する制限を含み、
     前記ベース空間は、前記第1の実空間および前記第2の実空間を含む複数の実空間のうちのいずれかに基いた空間である、請求項2に記載の情報処理装置。
  9.  前記ベース空間内のオブジェクトの利用に関する制限は、前記ベース空間内のオブジェクトに対するアクセスに関する制限を含む、請求項8に記載の情報処理装置。
  10.  前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記ベース空間に関する設定を変更する、請求項8に記載の情報処理装置。
  11.  前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記自由視点のコンテンツに関連付けられるベース空間を第1のベース空間から第2のベース空間へ切り替える、請求項10に記載の情報処理装置。
  12.  前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記自由視点のコンテンツと前記第1のベース空間との関連付けを削除し、かつ、前記自由視点のコンテンツに前記第2のベース空間を関連付けることにより、前記第1のベース空間から前記第2のベース空間へ切り替える、請求項11に記載の情報処理装置。
  13.  前記利用制限部は、前記第2の実空間または前記第2のユーザに関連付けられている第2の設定情報に基づいて、前記複数の実空間のうちのいずれかを前記第2のベース空間として決定する、請求項11に記載の情報処理装置。
  14.  前記情報処理装置は、前記自由視点のコンテンツに関連付けられる前記ベース空間が前記第1のベース空間から前記第2のベース空間へ切り替えられる場合に、前記第1のベース空間から前記第2のベース空間へと連続的に変更されることを示すように前記自由視点のコンテンツを加工するコンテンツ処理部をさらに備える、請求項11に記載の情報処理装置。
  15.  前記ベース空間内のオブジェクトは、機器を含み、
     前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記第2のユーザの、前記機器に対するアクセス権限を変更する、請求項8に記載の情報処理装置。
  16.  前記ベース空間内のオブジェクトは、コンテンツを含み、
     前記利用制限部は、前記利用の終了を示す情報と前記第1の設定情報に基づいて、前記第2のユーザの、前記コンテンツに対するアクセス権限を変更する、請求項8に記載の情報処理装置。
  17.  前記利用制限部は、前記第1の設定情報が示す、前記ベース空間内の一以上のオブジェクトを前記ベース空間から削除する、請求項8に記載の情報処理装置。
  18.  前記情報処理装置は、前記ベース空間内の一以上のオブジェクトが前記ベース空間から削除される場合に、前記自由視点のコンテンツにおける、前記一以上のオブジェクトの表示態様を連続的に変更するコンテンツ処理部をさらに備える、請求項17に記載の情報処理装置。
  19.  実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得することと、
     前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限をプロセッサが設定することと、
    を含む、情報処理方法。
  20.  コンピュータを、
     実空間のセンシングに基いて提供され、かつ、少なくとも第1のユーザと第2のユーザとにより共有されている自由視点のコンテンツの、前記第1のユーザによる利用の終了を示す情報を取得する取得部と、
     前記利用の終了を示す情報と第1の設定情報とに基づいて、前記自由視点のコンテンツの利用に関する制限を設定する利用制限部、
    として機能させるための、プログラム。
PCT/JP2017/038614 2016-11-21 2017-10-26 情報処理装置、情報処理方法、およびプログラム WO2018092535A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112017005879.1T DE112017005879T5 (de) 2016-11-21 2017-10-26 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US16/344,674 US11023599B2 (en) 2016-11-21 2017-10-26 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016226212A JP2018084878A (ja) 2016-11-21 2016-11-21 情報処理装置、情報処理方法、およびプログラム
JP2016-226212 2016-11-21

Publications (1)

Publication Number Publication Date
WO2018092535A1 true WO2018092535A1 (ja) 2018-05-24

Family

ID=62145439

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/038614 WO2018092535A1 (ja) 2016-11-21 2017-10-26 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US11023599B2 (ja)
JP (1) JP2018084878A (ja)
DE (1) DE112017005879T5 (ja)
WO (1) WO2018092535A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11080417B2 (en) * 2018-06-26 2021-08-03 Google Llc Private eye-to-eye communications with wearable heads up display
JP6722786B1 (ja) * 2019-02-05 2020-07-15 凸版印刷株式会社 空間情報管理装置
US11442685B2 (en) * 2019-09-09 2022-09-13 Autodesk, Inc. Remote interaction via bi-directional mixed-reality telepresence
KR102373833B1 (ko) * 2020-01-09 2022-03-14 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
US11756225B2 (en) 2020-09-16 2023-09-12 Campfire 3D, Inc. Augmented reality collaboration system with physical device
US11176756B1 (en) * 2020-09-16 2021-11-16 Meta View, Inc. Augmented reality collaboration system
USD1029076S1 (en) 2022-03-10 2024-05-28 Campfire 3D, Inc. Augmented reality pack

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002305758A (ja) * 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 臨場感通信装置及び臨場感通信システム
JP2005182331A (ja) * 2003-12-18 2005-07-07 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007294A (ja) * 2000-06-22 2002-01-11 Canon Inc 画像配信システム及び方法並びに記憶媒体
EP1407601B1 (en) * 2002-04-05 2018-10-10 Panasonic Intellectual Property Management Co., Ltd. Communications terminal device allowing content reception and voice communication
US20030196094A1 (en) * 2002-04-10 2003-10-16 Hillis W. Daniel Method and apparatus for authenticating the content of a distributed database
JP2004135051A (ja) * 2002-10-10 2004-04-30 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、記録媒体、並びにプログラム
US8095409B2 (en) * 2002-12-06 2012-01-10 Insors Integrated Communications Methods and program products for organizing virtual meetings
JP4389450B2 (ja) * 2003-02-24 2009-12-24 富士ゼロックス株式会社 作業空間形成装置
US7184531B2 (en) * 2003-06-05 2007-02-27 Siemens Communications, Inc. System and method for authorizing a party to join a conference
JP2005004487A (ja) 2003-06-12 2005-01-06 Sony Corp 捕捉パス上で撮影されたサラウンド画像を処理する装置及び方法
DE102004026785B4 (de) * 2004-06-02 2006-12-28 Infineon Technologies Ag Kommunikationssystem, Kommunikationsendgerät, Konferenzsteuereinheit, Verfahren zum Steuern eines Kommunikationssystems, Verfahren zum Steuern eines Kommunikationsendgeräts und Verfahren zum Steuern einer Konferenzsteuereinheit
DE102004052440B3 (de) * 2004-10-28 2006-04-06 Infineon Technologies Ag Verfahren zum rechnergestützten Verwalten einer Telekommunikations-Konferenz und Telekommunikation-Konferenz-Servereinrichtungen
US7809124B2 (en) * 2005-02-11 2010-10-05 Microsoft Corporation Meeting lobby for web conferencing
US8082509B2 (en) * 2005-04-22 2011-12-20 Hewlett-Packard Development Company, L.P. Systems and methods for providing immediate access to virtual collaboration facilities
JP2007034895A (ja) * 2005-07-29 2007-02-08 Toshiba Corp 情報管理装置、情報管理方法、及び情報管理システム
JP4708128B2 (ja) * 2005-09-08 2011-06-22 三菱電機株式会社 携帯端末及びコンテンツ継続視聴システム
US20080189366A1 (en) * 2006-12-15 2008-08-07 Cox Richard D Online Social and Professional Networking and Collaboration Services with Enhanced Communications Capabilities
US20110137438A1 (en) * 2009-12-07 2011-06-09 Vimicro Electronics Corporation Video conference system and method based on video surveillance system
US8356316B2 (en) * 2009-12-17 2013-01-15 At&T Intellectual Property I, Lp Method, system and computer program product for an emergency alert system for audio announcement
US8650256B2 (en) * 2011-10-12 2014-02-11 International Business Machines Corporation Communications security by enforcing offline consumption and auto-termination of electronic messages
KR20130098770A (ko) * 2012-02-28 2013-09-05 한국전자통신연구원 입체감 확장형 가상 스포츠 체험 시스템
US9171333B2 (en) * 2012-07-06 2015-10-27 Nasdaq, Inc. Due diligence systems with integrated indication of required action
JP5891131B2 (ja) * 2012-07-11 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US20140123028A1 (en) * 2012-10-27 2014-05-01 Kiran Kamity Comprehensive multimedia management platform
US20140189063A1 (en) * 2012-12-27 2014-07-03 Dropbox, Inc. Content delivery via an online synchronized content management system
US9413797B2 (en) * 2013-04-23 2016-08-09 Gurulogic Microsystems Oy Data communication system and method
US20160299666A1 (en) * 2013-11-28 2016-10-13 Sony Corporation Information processing apparatus, information processing method, and program
JP2015111371A (ja) * 2013-12-06 2015-06-18 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9246972B2 (en) * 2013-12-19 2016-01-26 Activision Publishing, Inc. Content delivery methods and systems
US9306893B2 (en) * 2013-12-31 2016-04-05 Google Inc. Systems and methods for progressive message flow
JP2016062239A (ja) * 2014-09-17 2016-04-25 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US10187435B2 (en) * 2014-11-21 2019-01-22 Cisco Technology, Inc. Queued sharing of content in online conferencing
US10091257B2 (en) * 2015-02-10 2018-10-02 Cisco Technology, Inc. Managing a virtual waiting room for online meetings
US10733371B1 (en) * 2015-06-02 2020-08-04 Steelcase Inc. Template based content preparation system for use with a plurality of space types
US10084844B2 (en) * 2015-11-16 2018-09-25 International Business Machines Corporation System and method for improved user-controlled electronic file and trash management
US10404938B1 (en) * 2015-12-22 2019-09-03 Steelcase Inc. Virtual world method and system for affecting mind state
US10831805B1 (en) * 2016-11-03 2020-11-10 United Services Automobile Association (Usaa) Virtual secure rooms
JP6298523B1 (ja) * 2016-12-26 2018-03-20 株式会社コロプラ 仮想空間を介して通信するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるためのプログラム、およびコンピュータ装置
JP6981214B2 (ja) * 2017-12-05 2021-12-15 富士通株式会社 画像生成プログラム、画像生成装置及び画像生成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002305758A (ja) * 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 臨場感通信装置及び臨場感通信システム
JP2005182331A (ja) * 2003-12-18 2005-07-07 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体

Also Published As

Publication number Publication date
US11023599B2 (en) 2021-06-01
US20190303594A1 (en) 2019-10-03
DE112017005879T5 (de) 2019-08-01
JP2018084878A (ja) 2018-05-31

Similar Documents

Publication Publication Date Title
WO2018092535A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11043033B2 (en) Information processing device and information processing method capable of deciding objects arranged in virtual space generated based on real space
AU2017373858B2 (en) Systems, methods, and media for displaying interactive augmented reality presentations
JP5898378B2 (ja) 情報処理装置およびアプリケーション実行方法
JP6558587B2 (ja) 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム
CN105247879B (zh) 客户机设备、控制方法、系统和程序
CN108415552B (zh) 虚拟影院交互系统及方法
US20190019011A1 (en) Systems and methods for identifying real objects in an area of interest for use in identifying virtual content a user is authorized to view using an augmented reality device
CN108304063B (zh) 信息处理装置、信息处理方法和计算机可读介质
US20180191955A1 (en) Moving picture reproducing device, moving picture reproducing method, moving picture reproducing program, moving picture reproducing system, and moving picture transmission device
CN104813642A (zh) 用于触发手势辨识模式以及经由非触摸手势的装置配对和共享的方法、设备和计算机可读媒体
JP6396171B2 (ja) 情報処理装置
CN109920065A (zh) 资讯的展示方法、装置、设备及存储介质
US11375559B2 (en) Communication connection method, terminal device and wireless communication system
US20220224735A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and method
JP7319172B2 (ja) 画像処理装置、画像処理方法及び画像処理システム
CN109074679A (zh) 具有增强现实强化的基于场景的实时广告
KR20200028830A (ko) 실시간 cg 영상 방송 서비스 시스템
US20190012834A1 (en) Augmented Content System and Method
JP7329209B1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
JP6849851B2 (ja) 撮影システム、撮影装置及びユーザ撮影方法
JP2023123389A (ja) コミュニケーションシステム
KR20240053895A (ko) Ar 콘텐츠를 이용한 스트리밍 영상 출력 방법 및 시스템
CN116943191A (zh) 基于故事场景的人机互动方法、装置、设备及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17871940

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17871940

Country of ref document: EP

Kind code of ref document: A1