DE112017005879T5 - Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm - Google Patents

Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm Download PDF

Info

Publication number
DE112017005879T5
DE112017005879T5 DE112017005879.1T DE112017005879T DE112017005879T5 DE 112017005879 T5 DE112017005879 T5 DE 112017005879T5 DE 112017005879 T DE112017005879 T DE 112017005879T DE 112017005879 T5 DE112017005879 T5 DE 112017005879T5
Authority
DE
Germany
Prior art keywords
space
content
user
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017005879.1T
Other languages
English (en)
Inventor
Masato Shimakawa
Naoyuki Sato
Seiji Suzuki
Hirotake Ishikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112017005879T5 publication Critical patent/DE112017005879T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • H04L65/1089In-session procedures by adding media; by removing media
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/402Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • H04L65/4025Support for services or applications wherein the services involve a main real-time session and one or more additional parallel non-real time sessions, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services where none of the additional parallel sessions is real time or time sensitive, e.g. downloading a file in a parallel FTP session, initiating an email or combinational services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • H04L65/762Media network packet handling at the source 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/102Entity profiles

Abstract

[Aufgabe] Eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein Programm vorzuschlagen, die in der Lage sind, die Nutzung des Inhalts in einer Situation, in der ein bestimmter Benutzer die Nutzung des Inhalts beendet, entsprechend einzuschränken.[Lösung] Es wird eine Informationsverarbeitungsvorrichtung bereitgestellt, die Folgendes aufweist: eine Erfassungseinheit, die dazu ausgelegt ist, Informationen zu akquirieren, die das Ende einer Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, die auf der Basis der Erfassung eines realen Raums bereitgestellt und von mindestens dem ersten Benutzer und einem zweiten Benutzer geteilt werden; und eine Nutzungseinschränkungseinheit, die dazu ausgelegt ist, auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkungen festzulegen.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein Programm.
  • Stand der Technik
  • In der Vergangenheit sind verschiedene Techniken zum Erzeugen von Inhalt auf der Basis eines Ergebnisses der Erfassung eines realen Raums vorgeschlagen worden, zum Beispiel zum Zwecke der Erzeugung von sehr realistischem Inhalt.
  • Zum Beispiel offenbart Patentliteratur 1 eine Technik zum Erzeugen eines Free-Viewpoint-Videos auf der Basis von Bildern, die von einer Vielzahl von Kameras aufgenommen wurden.
  • Liste der Quellenangaben
  • Patentliteratur
  • Patentliteratur 1: JP 2005-4487A
  • Offenbarung der Erfindung Technisches Problem
  • Nebenbei bemerkt, ist es auch wünschenswert, dass der Inhalt eines Free-Viewpoint-Videos von einer Vielzahl von Benutzern gemeinsam genutzt werden kann. Falls angenommen wird, dass die in Patentliteratur 1 offenbarte Technik auf eine solche Situation in der in Patentliteratur 1 offenbarten Technik anzuwenden ist, wird in einem Fall, in dem ein bestimmter Benutzer die Nutzung des Inhalts beendet, ein Prozess, wenn andere Benutzer den Inhalt danach nutzen, nicht in Betracht gezogen.
  • In dieser Hinsicht schlägt die vorliegende Offenbarung eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein Programm vor, die in der Lage sind, die Nutzung des Inhalts in einer Situation, in der ein bestimmter Benutzer die Nutzung des Inhalts beendet, entsprechend einzuschränken.
  • Lösung des Problems
  • Gemäß der vorliegenden Offenbarung wird eine Informationsverarbeitungsvorrichtung bereitgestellt, die Folgendes aufweist: eine Erfassungseinheit, die dazu ausgelegt ist, Informationen zu akquirieren, die das Ende einer Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, die auf der Basis der Erfassung eines realen Raums bereitgestellt und von mindestens dem ersten Benutzer und einem zweiten Benutzer geteilt werden; und eine Nutzungseinschränkungseinheit, die dazu ausgelegt ist, auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen eine auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung festzulegen.
  • Darüber hinaus wird gemäß der vorliegenden Offenbarung ein Informationsverarbeitungsverfahren bereitgestellt, das Folgendes beinhaltet: Erfassen von Informationen, die ein Ende der Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, die auf der Basis der Erfassung eines realen Raums bereitgestellt und von mindestens dem ersten Benutzer und einem zweiten Benutzer geteilt werden; und Festlegen, durch einen Prozessor, auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen einer auf die Nutzung des Inhalts des freien Blickpunkts bezogenen Einschränkung.
  • Darüber hinaus wird gemäß der vorliegenden Offenbarung ein Programm bereitgestellt, das einen Computer veranlasst, als Folgendes zu fungieren: eine Erfassungseinheit, die dazu ausgelegt ist, Informationen zu akquirieren, die das Ende einer Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, die auf der Basis der Erfassung eines realen Raums bereitgestellt und von mindestens dem ersten Benutzer und einem zweiten Benutzer geteilt werden; und eine Nutzungseinschränkungseinheit, die dazu ausgelegt ist, auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen eine auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung festzulegen.
  • Vorteilhafte Effekte der Erfindung
  • Wie oben beschrieben, ist es gemäß der vorliegenden Offenbarung möglich, die Nutzung des Inhalts in einer Situation, in der ein bestimmter Benutzer die Nutzung des Inhalts beendet, entsprechend einzuschränken. Ferner sind die hier beschriebenen Effekte nicht unbedingt einschränkend, und jeder in der vorliegenden Offenbarung beschriebene Effekt kann einbezogen werden.
  • Figurenliste
    • 1 ist ein erläuterndes Diagramm, das ein Konfigurationsbeispiel eines Informationsverarbeitungssystems gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt.
    • 2 ist ein funktionales Blockdiagramm, das ein Konfigurationsbeispiel eines Clients 20 gemäß der Ausführungsform darstellt.
    • 3 ist ein erläuterndes Diagramm, das ein Beispiel der Segmentierung eines in einem realen Raum 2 befindlichen Objekts darstellt.
    • 4 ist ein erläuterndes Diagramm, das ein Erzeugungsbeispiel eines gemeinsam genutzten Raums gemäß der Ausführungsform darstellt.
    • 5 ist ein funktionales Blockdiagramm, das ein Konfigurationsbeispiel eines Servers 10 gemäß der Ausführungsform darstellt.
    • 6 ist ein funktionales Blockdiagramm, das ein Konfigurationsbeispiel einer Shared-Space-Verwaltungseinheit 100 gemäß der Ausführungsform darstellt.
    • 7 ist ein funktionales Blockdiagramm, das ein Konfigurationsbeispiel einer Shared-Space-Erzeugungseinheit 102 gemäß der Ausführungsform darstellt.
    • 8 ist ein erläuterndes Diagramm, das ein Konfigurationsbeispiel einer Einstellungsinformation DB 160 gemäß der Ausführungsform darstellt.
    • 9A ist ein erläuterndes Diagramm, das einen Teil eines Erzeugungsbeispiels eines gemeinsam genutzten Raums gemäß der Ausführungsform darstellt.
    • 9B ist ein erläuterndes Diagramm, das einen Teil eines Erzeugungsbeispiels eines gemeinsam genutzten Raums gemäß der Ausführungsform darstellt.
    • 10 ist ein erläuterndes Diagramm, das einen Teil eines Erzeugungsbeispiels eines gemeinsam genutzten Raums gemäß der Ausführungsform darstellt.
    • 11 ist ein Diagramm, das ein Beispiel einer Animation darstellt, die darstellt, dass die Anzeige eines neuen Objekts gemäß der Ausführungsform gestartet wird.
    • 12 ist ein Diagramm, das ein Beispiel einer Animation darstellt, die darstellt, dass die Anzeige eines neuen Objekts gemäß der Ausführungsform gestartet wird.
    • 13 ist ein Diagramm, das ein Beispiel einer Animation darstellt, die darstellt, dass die Anzeige eines neuen Objekts gemäß der Ausführungsform gestartet wird.
    • 14 ist ein Diagramm, das ein Beispiel einer Animation darstellt, die darstellt, dass die Anzeige eines Löschungszielobj ekts gemäß der Ausführungsform beendet wird.
    • 15 ist ein Diagramm, das ein Beispiel einer Animation darstellt, die darstellt, dass die Anzeige eines Löschungszielobj ekts gemäß der Ausführungsform beendet wird.
    • 16 ist ein Diagramm, das ein Beispiel einer Animation darstellt, die darstellt, dass die Anzeige eines Löschungszielobj ekts gemäß der Ausführungsform beendet wird.
    • 17 ist ein Diagramm, das ein Beispiel einer Animation darstellt, die darstellt, dass ein Basisraum gemäß der Ausführungsform gewechselt wird.
    • 18 ist ein Diagramm, das ein Beispiel einer Animation darstellt, die darstellt, dass ein Basisraum gemäß der Ausführungsform gewechselt wird.
    • 19 ist ein Flussdiagramm, das einen Teil von „Prozessablauf beim Starten von Space-Sharing“ gemäß der Ausführungsform darstellt.
    • 20 ist ein Flussdiagramm, das einen Teil von „Prozessablauf beim Starten von Space-Sharing“ gemäß der Ausführungsform darstellt.
    • 21 ist ein Flussdiagramm, das „Prozessablauf zum Zeitpunkt der zusätzlichen Teilnahme an einem gemeinsam genutzten Raum“ gemäß der Ausführungsform darstellt.
    • 22 ist ein Flussdiagramm, das einen Teil von „Prozessablauf zum Austrittszeitpunkt“ gemäß der Ausführungsform darstellt.
    • 23 ist ein Flussdiagramm, das einen Teil von „Prozessablauf zum Austrittszeitpunkt“ gemäß der Ausführungsform darstellt.
    • 24 ist ein Flussdiagramm, das einen Teil von „Prozessablauf zum Austrittszeitpunkt“ gemäß der Ausführungsform darstellt.
    • 25 ist ein erläuterndes Diagramm, das eine Hardware-Konfiguration eines Servers 10 gemäß der Ausführungsform darstellt.
  • Modus (Modi) zum Ausführen der Erfindung
  • In Folgenden wird (werden) (a) (eine) bevorzugte Ausführungsform(en) der vorliegenden Offenbarung unter Bezugnahme auf die angehängten Zeichnungen ausführlich beschrieben. Beachten Sie, dass in dieser Spezifikation und den angehängten Zeichnungen strukturelle Elemente, die im Wesentlichen die gleiche Funktion und Struktur haben, mit den gleichen Bezugszeichen gekennzeichnet sind, und dass eine wiederholte Erläuterung dieser strukturellen Elemente ausgelassen wird.
  • Ferner wird in dieser Spezifikation und in den Zeichnungen eine Vielzahl von Bestandteilen, die im Wesentlichen die gleiche funktionale Konfiguration haben, auch durch Anfügen unterschiedlicher Buchstaben nach denselben Bezugszeichen unterschieden. Zum Beispiel wird eine Vielzahl von Komponenten, die im Wesentlichen die gleiche funktionale Konfiguration haben, gegebenenfalls wie eine Eingabeeinheit 22a und eine Eingabeeinheit 22b unterschieden. Hier werden in einem Fall, in dem es nicht notwendig ist, jedes einer Vielzahl von Bestandteilen, die im Wesentlichen die gleiche funktionale Konfiguration haben, besonders zu unterscheiden, nur die gleichen Bezugszeichen angefügt. Zum Beispiel werden sie in einem Fall, in dem es nicht notwendig ist, die Eingabeeinheit 22a und die Eingabeeinheit 22b besonders voneinander zu unterscheiden, einfach als Eingabeeinheit 22 bezeichnet.
  • Ferner wird ein „Modus zum Ausführen der Erfindung“ im Einklang mit der Reihenfolge der unten aufgeführten Posten beschrieben.
    1. 1. Konfiguration des Informationsverarbeitungssystems
    2. 2. Ausführliche Beschreibung der Ausführungsformen
    3. 3. Hardware-Konfiguration
    4. 4. Modifizierte Beispiele
  • <<Konfiguration des Informationsverarbeitungssystems>>
  • <Übersicht>
  • Zuerst wird eine Konfiguration eines Informationsverarbeitungssystems gemäß einer Ausführungsform der vorliegenden Offenbarung unter Bezugnahme auf 1 beschrieben. Wie in 1 dargestellt, enthält das Informationsverarbeitungssystem gemäß der vorliegenden Ausführungsform einen Server 10, eine Vielzahl von Clients 20 und ein Kommunikationsnetz 26. Ferner umfasst jeder Client 20 eine Eingabeeinheit 22 und eine Ausgabeeinheit 24.
  • Wie in 1 dargestellt, wird in der vorliegenden Ausführungsform angenommen, dass eine Vielzahl von realen Räumen 2 im Voraus definiert ist, und dass ein Client 20 in jedem der Vielzahl von realen Räumen 2 angeordnet ist. Hier können die realen Räume 2 Räume (zum Beispiel ein Wohnzimmer oder ein Konferenzraum) oder Korridore in einer Einrichtung, wie z. B. einem Haus, einem Laden, einem Bürogebäude, einem Bahnhof oder einer Freizeiteinrichtung, sein. Ferner, obwohl 1 ein Beispiel darstellt, in dem zwei reale Räume 2 installiert sind, ist die vorliegende Offenbarung nicht auf dieses Beispiel beschränkt, und es können drei oder mehr reale Räume installiert sein. Ferner wird im Grunde angenommen, dass sich ein oder mehrere Benutzer in jedem realen Raum 2 befinden, doch die vorliegende Offenbarung ist nicht auf dieses Beispiel beschränkt, und es kann einen realen Raum geben, in dem sich kein Benutzer befindet.
  • Ferner sind der Server 10 und jeder Client 20 über das Kommunikationsnetz 26 verbunden und können Sendung und Empfang von Daten durchführen.
  • Im Übrigen ist es in einer Situation, in der die in den unterschiedlichen realen Räumen 2 befindlichen Benutzer kommunizieren, möglich, reibungslosere Kommunikation zu realisieren, indem dem anderen Benutzer während des Gesprächs reale Dinge gezeigt werden. Wenn zum Beispiel in einer Situation, in welcher der Benutzer ein Produkt beschreibt, der Benutzer dieses erläutert, während er das Produkt selbst oder ein Modell des Produkts dem anderen Benutzer zeigt, es für den anderen Benutzer leicht ist, es zu verstehen.
  • Ferner kann es abhängig von einer Kommunikationssituation wünschenswert sein, dem anderen Benutzer ein vom Benutzer entfernt befindliches Objekt (z. B. ein Objekt, das zu einem Thema zwischen den kommunizierenden Benutzern wird) zusätzlich zu einem in der Nähe des Benutzers befindlichen Produkt zu zeigen. In dieser Hinsicht erzeugt der Server 10 gemäß der vorliegenden Ausführungsform einen Inhalt eines freien Blickpunkts durch Synthetisieren von 3D-Daten von nahezu dem ganzen realen Raum 2 in dem sich jeder der kommunizierenden Benutzer befindet. Ferner können die jeweiligen Benutzer frei kommunizieren, während Sie ein Erlebnis haben, als ob sie sich in demselben Raum befänden, indem sie den Inhalt des freien Blickpunkts zur gleichen Zeit betrachten.
  • (Inhalt des freien Blickpunkts)
  • Hier kann der Inhalt des freien Blickpunkts aus Daten zum Präsentieren eines Videos bestehen (zum Beispiel eines Videos eines realen Raums 2 oder dergleichen) von einer freien Blickpunktposition aus, die auf der Basis von Daten bereitgestellt wird, die durch Erfassen des realen Raums 2 von einer Vielzahl von Blickpunkten (Eingabeeinheit 22) erhalten werden, die in dem realen Raum 2 angeordnet sind. Beispielsweise kann ein dreidimensionaler virtueller Raum konstruiert werden, indem zum Beispiel Daten integriert werden, die durch Erfassen des realen Raums gleichzeitig von einer Vielzahl von Blickpunkten aus erhalten werden. In diesem Fall kann der Inhalt des freien Blickpunkts aus Daten bestehen, die ein Video von einem freien Blickpunkt in dem dreidimensionalen virtuellen Raum präsentieren. Beispielsweise kann der Inhalt des freien Blickpunkts aus Daten bestehen, die ein Video eines virtuellen Raums von einem Blickpunkt präsentieren, wenn der Blickpunkt virtuell frei in dem dreidimensionalen virtuellen Raum bewegt wird.
  • Beispielsweise kann in einem Fall, in dem der Inhalt des freien Blickpunkts auf einem von dem Benutzer getragenen Head-Mounted Display (HMD) angezeigt wird, und in dem der Benutzer eine Manipulation (zum Beispiel eine Manipulation, einen Sprachbefehl oder dergleichen an einem vorbestimmten Eingabegerät) zum Bewegen des Blickpunkts durchführt, das Video von dem bewegten Blickpunkt auf der Basis der Manipulation auf dem HMD angezeigt werden. Wie oben beschrieben, kann der Benutzer in der Lage sein, den Inhalt eines freien Blickpunkts durch freies Bewegen des Blickpunkts zu betrachten.
  • Ferner kann der Inhalt des freien Blickpunkts dreidimensionale Informationen und Farbinformationen enthalten, die jedes Objekt in dem realen Raum 2 eines Erfassungsziels angeben. Beispielsweise enthält der Inhalt des freien Blickpunkts dreidimensionale Informationen, die eine Position jedes Punkts eines virtuellen Objekts angeben, die jedem Objekt in dem dreidimensionalen virtuellen Raum und den Farbinformationen jedes Punkts entsprechen. Ferner kann der Inhalt des freien Blickpunkts außerdem Audioinformationen, wie etwa durch die Eingabeeinheit 22 gesammelte Sounds, enthalten.
  • <Eingabeeinheit 22>
  • Nachstehend wird der Inhalt des Clients 20 und des Servers 10 ausführlicher beschrieben. Wie in 1 dargestellt, kann die Eingabeeinheit 22 eine Vielzahl von Kameras (zum Beispiel eine Vielzahl von Tiefenkameras und eine Vielzahl von RGB-Kameras) enthalten, die in dem realen Raum 2 installiert sind. Die Eingabeeinheit 22 akquiriert 3D-Daten von jedem Objekt in dem realen Raum, zum Beispiel, durch Abtasten des realen Raums, in dem die Eingabeeinheit 22 angeordnet ist. Dann überträgt die Eingabeeinheit 22 Rahmendaten, welche die akquirierten 3D-Daten enthalten, zu dem Server 10.
  • 2 ist ein funktionales Blockdiagramm, das ein Konfigurationsbeispiel des Clients 20 (der Eingabeeinheit 22 und der Ausgabeeinheit 24) darstellt. Wie in 2 dargestellt, weist die Eingabeeinheit 22 eine Sensoreinheit 220, eine Steuerinformationen-Empfangseinheit 222, eine Erkennungseinheit 224, eine Streamerzeugungseinheit 226 und eine Übertragungseinheit 228 auf.
  • {Sensoreinheit 220}
  • Die Sensoreinheit 220 kann verschiedene Arten von Sensoren, wie etwa einen dreidimensionalen Sensor (zum Beispiel einen Tiefensensor, eine Stereokamera oder dergleichen) und einen zweidimensionalen Sensor (zum Beispiel einen Bildsensor, einen Infrarotsensor oder dergleichen) enthalten. Die Sensoreinheit 220 erkennt verschiedene Arten von Informationen, wie z. B. 3D-Daten, in dem realen Raum, in dem die Sensoreinheit 220 platziert ist, durch Durchführen eines Empfangs- oder Lesevorgangs oder dergleichen. Zum Beispiel kann die Sensoreinheit 220 eine Vielzahl von Tiefenkameras und eine Vielzahl von RGB-Kameras umfassen. Ferner, da jede der Vielzahl von Tiefenkameras Entfernungsinformationen zu einem vor der Tiefenkamera befindlichen Objekt erkennt, kann die Sensoreinheit 220 3D-Daten von nahezu dem ganzen realen Raum akquirieren. Ferner kann jede der Vielzahl von RGB-Kameras ein 2D-Bild durch Abbildung akquirieren. Hier kann ein Format von 3D-Daten ein beliebiges Format, wie zum Beispiel eine Punktwolke oder ein 3D-Netz (Polygon), sein. Ferner ist die Vielzahl der in der Sensoreinheit 220 enthaltenen Kameras miteinander verbunden, und Rahmensynchronisation kann durchgeführt werden.
  • (Segmentierungsprozess)
  • Beispielsweise erzeugt die Sensoreinheit 220 zuerst Punktwolkendaten in Einheiten von Rahmen und führt einen Objektsegmentierungsprozess auf der Basis der erzeugten Punktwolkendaten durch. Dann berechnet die Sensoreinheit 220 Informationen des Bereichs, den jedes der segmentierten Objekte in dem realen Raum 2, in dem die Sensoreinheit 220 angeordnet ist, belegt. Ferner weist die Sensoreinheit 220 jedem Objekt eine Objekt-ID zu. Hier sind die Objekt-IDs IDs, die jedes Objekt eindeutig identifizieren.
  • Hier wird der obige Inhalt unter Bezugnahme auf 3 ausführlicher beschrieben. Wie in 3 dargestellt, segmentiert eine Sensoreinheit 220a in einem realen Raum 2a zum Beispiel ein Objekt 42a und ein Objekt 42b, und legt „1“ als Objekt-ID des Objekts 42a und „2“ als Objekt-ID des Objekts 42b fest. Ebenso, wie in 3 dargestellt, segmentiert eine Sensoreinheit 220b in einem realen Raum 2b ein Objekt 42c und ein Objekt 42d, und legt „1“ als Objekt-ID des Objekts 42c und „2“ als Objekt-ID des Objekts 42d fest.
  • (Modellierungsprozess)
  • Ferner kann die Sensoreinheit 220 einen Modellierungsprozess an jedem der segmentierten Objekte durchführen und ein 3D-Netz erzeugen.
  • Ferner erzeugt die Sensoreinheit 220 außerdem 2D-Bild-Korrelationsinformationen, die eine Übereinstimmungsbeziehung zwischen jedem Objekt und einem von der Sensoreinheit 220 aufgenommenen 2D-Bild angeben. Hier sind die 2D-Bild-Korrelationsinformationen Informationen, die eine Position in dem aufgenommenen 2D-Bild angeben, die dem jeweiligen Objekt entspricht.
  • Ferner kann die Sensoreinheit 220 einen Verfolgungsprozess jedes Objekts auf der Basis einer Merkmalsmenge jedes segmentierten Objekts oder dergleichen durchführen. Ferner ändert die Sensoreinheit 220 die dem Objekt zugewiesene Objekt-ID für das als identisch bestimmte Objekt zwischen aufeinanderfolgenden Rahmen nicht.
  • Ferner kann die Sensoreinheit 220 außerdem ein oder mehrere Mikrofone einschließen. Ferner kann die Sensoreinheit 220 Sound in dem realen Raum sammeln.
  • (Ausgabe)
  • Ferner gibt die Sensoreinheit 220 die Rahmendaten, die das aufgenommene 2D-Bild, die akquirierten 3D-Daten jedes Objekts und die 2-Korrelationsinformationen enthalten, in Einheiten von Rahmen aus. Ferner können die Rahmendaten außerdem gesammelte Audiodaten enthalten.
  • Ferner kann die Sensoreinheit 220 aus einer einzelnen Vorrichtung (zum Beispiel einer Kamera) oder aus einer Vielzahl von Vorrichtungen bestehen. Ferner können in einem Fall, in dem sie aus einer Vielzahl von Vorrichtungen besteht, 3D-Daten oder dergleichen, die von der Vielzahl von Vorrichtungen akquiriert wurden, mit einem hohen Genauigkeitsgrad durch Kalibrierung, einen Rahmensynchronisationsprozess oder dergleichen synthetisiert werden.
  • {Steuerinformationen-Empfangseinheit 222}
  • Die Steuerinformationen-Empfangseinheit 222 kann eine Kommunikationsvorrichtung, wie etwa eine Netzwerkkarte, enthalten. Die Steuerinformationen-Empfangseinheit 222 empfängt erste Steuerinformationen von dem Server 10. Ferner sendet die Steuerinformationen-Empfangseinheit 222 die empfangenen ersten Steuerinformationen zu der Erkennungseinheit 224 und der Streamerzeugungseinheit 226. Hier können die ersten Steuerinformationen zum Beispiel Informationen eines Befehls enthalten, der auf einen später zu beschreibenden Erkennungsprozess durch die Erkennungseinheit 224 bezogen ist, oder Informationen eines Befehls, der auf eine später zu beschreibende Streamerzeugung durch eine Streamerzeugungseinheit 226 bezogen ist.
  • {Erkennungseinheit 224}
  • (Erkennung)
  • Die Erkennungseinheit 224 kann ein oder mehrere Verarbeitungsschaltungen (wie z. B. eine Zentraleinheit (CPU)) enthalten. Die Erkennungseinheit 224 führt verschiedene Arten von Erkennungsprozessen auf der Basis der von der Sensoreinheit 220 übertragenen Rahmendaten durch. Zum Beispiel kann die Erkennungseinheit 224 den Erkennungsprozess auf der Basis der in den Rahmendaten enthaltenen 3D-Daten durchführen, oder sie kann den Erkennungsprozess auf der Basis des in den Rahmendaten enthaltenen 2D-Bilds durchführen.
  • Zum Beispiel erkennt die Erkennungseinheit 224 die Art des Objekts auf der Basis der Rahmendaten. Ferner führt die Erkennungseinheit 224 außerdem Gesichtserkennung, Knochenerkennung und Fingererkennung für ein als Person ermitteltes Objekt durch. Ferner kann die Erkennungseinheit 224 eine vom Benutzer durchgeführte Manipulation zum Starten der Nutzung des Inhalts des freien Blickpunkts (durch den Server 10 erzeugt) oder eine vom Benutzer durchgeführte Manipulation zum Beenden der Nutzung des Inhalts des freien Blickpunkts erkennen. Ferner wird der spezifische Inhalt solcher Manipulationen später beschrieben werden.
  • Ferner kann die Erkennungseinheit 224 in einem Fall, in dem die ersten Steuerinformationen von der Steuerinformationen-Empfangseinheit 222 gesendet werden, auch den Erkennungsprozess im Einklang mit den ersten Steuerinformationen durchführen.
  • (Ausgabe)
  • Ferner fügt die Erkennungseinheit 224 das Ergebnis des Erkennungsprozesses zu den übertragenen Rahmendaten hinzu und überträgt die resultierenden Rahmendaten zu der Streamerzeugungseinheit 226. Zum Beispiel erzeugt die Erkennungseinheit 224 zuerst Metainformationen, Knochenerkennungsinformationen und Fingererkennungsinformationen zum Beispiel auf der Basis des Ergebnisses des Erkennungsprozesses für ein als Person ermitteltes Objekt. Dann fügt die Erkennungseinheit 224 diese Informationen zu den übertragenen Rahmendaten hinzu. Hier sind die Metainformationen Informationen, die ein Attribut oder dergleichen jedes erkannten Objekts angeben. Zum Beispiel können die Metainformationen für jedes Objekt die Objekt-ID des Objekts, die Gebietsinformationen, die eine Position des Objekts angeben, die Art des Objekts, den realen Raum, Informationen darüber, ob das Objekt mit einem anderen Objekt in Kontakt oder in dessen Nähe ist, eine ID eines anderen Objekts, das sich in der Nähe des Objekts befindet und/oder dergleichen enthalten.
  • {Streamerzeugungseinheit 226}
  • Die Streamerzeugungseinheit 226 kann ein oder mehrere Verarbeitungsschaltungen (wie z. B. eine CPU) enthalten. Die Streamerzeugungseinheit 226 erzeugt einen Stream auf der Basis der von der Erkennungseinheit 224 übertragenen Rahmendaten. Dann überträgt die Streamerzeugungseinheit 226 den erzeugten Stream zu der Übertragungseinheit 228. Zum Beispiel kann die Streamerzeugungseinheit 226 zuerst einen Stream durch Multiplexen verschiedener von der Erkennungseinheit 224 übertragener Informationsarten erzeugen und den einen Stream zu der Übertragungseinheit 228 übertragen. Alternativ dazu kann die Streamerzeugungseinheit 226 getrennte Streams von verschiedenen von der Erkennungseinheit 224 übertragenen Informationsarten erzeugen und jeden Stream zu der Übertragungseinheit 228 übertragen.
  • Ferner kann die Streamerzeugungseinheit 226 in einem Fall, in dem die ersten Steuerinformationen von der Steuerinformationen-Empfangseinheit 222 übertragen werden, einige durch die ersten Steuerinformationen gekennzeichneten Informationen von den Informationen, die von der Erkennungseinheit 224 übertragen werden, extrahieren und einen Stream erzeugen, der nur die extrahierten Informationen enthält. Ferner kann die Streamerzeugungseinheit 226 den Stream zu der Übertragungseinheit 228 übertragen.
  • {Übertragungseinheit 228}
  • Die Übertragungseinheit 228 kann eine Kommunikationsvorrichtung, wie etwa eine Netzwerkkarte, enthalten. Die Übertragungseinheit 228 überträgt den von der Streamerzeugungseinheit 226 übertragenen Stream zu dem Server 10.
  • <Server 10>
  • Der Server 10 ist ein Beispiel einer Informationsverarbeitungsvorrichtung in der vorliegenden Offenbarung. Auf der Basis des von der Eingabeeinheit 22 jedes realen Raums 2 empfangenen Streams erzeugt der Server 10 einen (virtuellen) gemeinsam genutzten Raum für Kommunikation zwischen den in den unterschiedlichen realen Räumen 2 befindlichen Benutzern. Zum Beispiel erzeugt der Server 10 den gemeinsam genutzten Raum durch Kombinieren der von den Eingabeeinheiten 22 (den Übertragungseinheiten 228) in den jeweiligen realen Räumen 2 empfangenen Streams.
  • 4 ist ein erläuterndes Diagramm, das ein Erzeugungsbeispiel des gemeinsam genutzten Raums darstellt. Wie in 4 dargestellt, erzeugt eine Shared-Space-Erzeugungseinheit 102 zum Beispiel einen gemeinsam genutzten Raum 40 durch Anordnen der 3D-Daten des Objekts 42a und des Objekts 42b, die in dem von der Eingabeeinheit 22 (Übertragungseinheit 228) des realen Raums 2a und des realen Raums 2b empfangenen Stream enthalten sind, und der 3D-Daten des Objekts 42c und des Objekts 42d, die in dem von der Eingabeeinheit 22 (Übertragungseinheit 228) der Eingabeeinheit 22 in dem gemeinsam genutzten Raum 40 empfangenen Stream enthalten sind.
  • Ferner kann der Server 10 auch eine Vielzahl von gemeinsam genutzten Räumen erzeugen. Zum Beispiel kann der Server 10 einen gemeinsam genutzten Raum A auf der Basis des von der Eingabeeinheit 22a (der Übertragungseinheit 228) in dem realen Raum 2a empfangenen Streams und des von der Eingabeeinheit 22b (der Übertragungseinheit 228) in dem realen Raum 2b empfangenen Streams erzeugen, und kann einen gemeinsam genutzten Raum B auf der Basis des von der Eingabeeinheit 22c (der Übertragungseinheit 228) in dem realen Raum 2c empfangenen Streams und des von der Eingabeeinheit 22d (der Übertragungseinheit 228) in dem realen Raum 2d empfangenen Streams erzeugen.
  • Ferner erzeugt der Server 10 den Inhalt des freien Blickpunkts auf der Basis des erzeugten gemeinsam genutzten Raums und überträgt dann den Inhalt zu der Ausgabeeinheit 24 jedes realen Raums 2.
  • 5 ist ein funktionales Blockdiagramm, das ein Konfigurationsbeispiel des Servers 10 darstellt. Wie in 5 dargestellt, weist der Server 10 eine Shared-Space-Verwaltungseinheit 100 und eine Vielzahl von Clientverbindungseinheiten 120 auf. Ferner kann eine Clientverbindungseinheit 120 für jeden platzierten Client 20 installiert werden. Ferner kann ein Paar (Clientbeziehung) der Clientverbindungseinheit 120 und des Clients 20 voreingestellt werden.
  • {Clientverbindungseinheit 120}
  • Die Clientverbindungseinheit 120 überträgt Informationen, die von der Shared-Space-Verwaltungseinheit 100 übertragen werden, zu dem Client 20 des Verbindungsziels. Ferner überträgt die Clientverbindungseinheit 120 von dem Client 20 des Verbindungsziels empfangene Informationen zu der Shared-Space-Verwaltungseinheit 100.
  • Ferner, wie in 5 dargestellt, weist jede Clientverbindungseinheit 120 eine Steuerinformationen-Übertragungseinheit 122, eine Streamtrennungseinheit 124, eine Empfangseinheit 126, eine Steuerinformationen-Empfangseinheit 128, eine Streamerzeugungseinheit 130 und eine Übertragungseinheit 132 auf.
  • {Empfangseinheit 126}
  • Die Empfangseinheit 126 ist ein Beispiel einer Erfassungseinheit in der vorliegenden Offenbarung. Die Empfangseinheit 126 kann eine Kommunikationsvorrichtung 912 enthalten, die später beschrieben werden wird (unter Bezugnahme auf 25). Die Empfangseinheit 126 empfängt den Stream von der Eingabeeinheit 22 (der Übertragungseinheit 228) des Verbindungsziels. Dann überträgt die Empfangseinheit 126 den empfangenen Stream zu der Streamtrennungseinheit 124.
  • {Streamtrennungseinheit 124}
  • Die Streamtrennungseinheit 124 kann ein oder mehrere Verarbeitungsschaltungen (wie z. B. eine CPU 900, die später unter Bezugnahme auf 25 beschrieben werden wird) enthalten. Zum Beispiel demultiplext die Streamtrennungseinheit 124 den von der Empfangseinheit 126 übertragenen Stream und trennt den Stream in 3D-Daten und Metainformationen in Einheiten von Rahmen. Dann überträgt die Streamtrennungseinheit 124 die getrennten 3D-Daten und Metainformationen zu der Shared-Space-Erzeugungseinheit 102.
  • {Steuerinformationen-Übertragungseinheit 122}
  • Die Steuerinformationen-Übertragungseinheit 122 kann eine Kommunikationsvorrichtung 912 enthalten, die später beschrieben werden wird. Die Steuerinformationen-Übertragungseinheit 122 überträgt die ersten Steuerinformationen zu dem Client 20 (der Eingabeeinheit 22) des Verbindungsziels auf der Basis eines Befehls der später beschriebenen Shared-Space-Erzeugungseinheit 102. Zum Beispiel erzeugt die Steuerinformationen-Übertragungseinheit 122 auf gewünschte 3D-Daten oder Metainformationen bezogene Informationen, die durch die Shared-Space-Erzeugungseinheit 102 als die ersten Steuerinformationen bestimmt werden, und überträgt die ersten Steuerinformationen zu der Eingabeeinheit 22. Dementsprechend ist es möglich, die Nutzung des Netzwerkbands einzuschränken und den Erkennungsprozess auf der Seite des Clients 20 zu reduzieren.
  • Zum Beispiel, in einem Fall, in dem entschieden wird, dass die Shared-Space-Erzeugungseinheit 102 nicht einen Teil der 3D-Daten eines spezifischen realen Raums nutzt, schließt die Steuerinformationen-Übertragungseinheit 122 den Inhalt der Entscheidung in die ersten Steuerinformationen ein, erzeugt die ersten Steuerinformationen und überträgt die ersten Steuerinformationen zu der Eingabeeinheit 22 des realen Raums. Dementsprechend kann die Eingabeeinheit 22 des Übertragungsziels eine Steuerung durchführen, so dass die Daten nicht zu dem Server 10 übertragen werden.
  • {Steuerinformationen-Empfangseinheit 128}
  • Die Steuerinformationen-Empfangseinheit 128 kann eine Kommunikationsvorrichtung 912 enthalten, die später beschrieben werden wird. Die Steuerinformationen-Empfangseinheit 128 empfängt zweite Steuerinformationen von der Ausgabeeinheit 24 (einer Steuerinformationen-Übertragungseinheit 252) des Verbindungsziels. Ferner überträgt die Steuerinformationen-Empfangseinheit 128 die empfangenen zweiten Steuerinformationen zu der Shared-Space-Erzeugungseinheit 102 und der Streamerzeugungseinheit 130. Hier können die zweiten Steuerinformationen Informationen, wie z. B. ein Erkennungsergebnis einer Position oder Stellung einer Anzeigeeinheit 246 (der Ausgabeeinheit 24), die später beschrieben werden wird, enthalten.
  • {Streamerzeugungseinheit 130}
  • Die Streamerzeugungseinheit 130 kann ein oder mehrere Verarbeitungsschaltungen (wie z. B. die CPU 900) enthalten. Die Streamerzeugungseinheit 130 erzeugt einen Stream für den Client 20 des Verbindungsziels auf der Basis der von der Shared-Space-Erzeugungseinheit 102 erzeugten Shared-Space-Rahmendaten. Hier können die Shared-Space-Rahmendaten Daten eines Rahmens des Inhalts des freien Blickpunkts im Zusammenhang mit dem gemeinsam genutzten Raum sein. Zum Beispiel enthalten die Shared-Space-Rahmendaten 3D-Daten und Metainformationen von jedem Objekt in dem gemeinsam genutzten Raum.
  • Zum Beispiel erzeugt die Streamerzeugungseinheit 130 den Stream durch Multiplexen der 3D-Daten, der Metainformationen und dergleichen des erzeugten gemeinsam genutzten Raums. Ferner kann die Streamerzeugungseinheit 130 in einem Fall, in dem die zweiten Steuerinformationen von der Steuerinformationen-Empfangseinheit 128 übertragen werden, den Stream auch auf der Basis der zweiten Steuerinformationen erzeugen. Zum Beispiel erzeugt die Streamerzeugungseinheit 130 den Stream durch Ausschließen von für die Anzeige unnötigen 3D-Daten, die durch die zweiten Steuerinformationen von einem zu erzeugenden Stream angegeben werden, oder durch Durchführen eines Prozesses der Qualitätssenkung oder dergleichen.
  • Ferner überträgt die Streamerzeugungseinheit 130 den erzeugten Stream zu der Übertragungseinheit 132.
  • {Übertragungseinheit 132}
  • Die Übertragungseinheit 132 kann eine Kommunikationsvorrichtung 912 enthalten, die später beschrieben werden wird. Die Übertragungseinheit 132 überträgt den von der Streamerzeugungseinheit 130 übertragenen Stream zu der Ausgabeeinheit 24 des Clients 20 des Verbindungsziels.
  • {Shared-Space-Verwaltungseinheit 100}
  • Die Shared-Space-Verwaltungseinheit 100 kann ein oder mehrere Verarbeitungsschaltungen (wie z. B. die CPU 900) enthalten. Die Shared-Space-Verwaltungseinheit 100 steuert den Betrieb des Servers 10 umfassend, indem sie zum Beispiel die CPU 900 und einen Direktzugriffsspeicher (RAM) 904 verwendet. Ferner, auf der Basis der von dem Client 20 in jedem realen Raum 2 empfangenen Rahmendaten und der von jeder Clientverbindungseinheit 120 übertragenen zweiten Steuerinformationen, erzeugt die Shared-Space-Verwaltungseinheit 100 den Inhalt des freien Blickpunkts (der Shared-Space-Rahmendaten). Ferner überträgt die Shared-Space-Verwaltungseinheit 100 den erzeugten Inhalt des freien Blickpunkts zu jeder Clientverbindungseinheit 120.
  • 6 ist ein funktionales Blockdiagramm, das ein noch ausführlicheres Konfigurationsbeispiel der Shared-Space-Verwaltungseinheit 100 darstellt. Wie in 6 dargestellt, umfasst die Shared-Space-Verwaltungseinheit 100 eine Shared-Space-Erzeugungseinheit 102, eine Erkennungseinheit 104, eine Ereigniserkennungseinheit 106 und eine Steuereinheit 108.
  • {Erkennungseinheit 104}
  • Die Erkennungseinheit 104 führt verschiedene Arten von Erkennungsprozessen, wie z. B. Gesichtserkennung, Fingererkennung oder Knochenerkennung auf der Basis der von der Shared-Space-Erzeugungseinheit 102 erzeugten Shared-Space-Rahmendaten durch. Wie später ausführlich beschrieben werden wird, akquiriert die Erkennungseinheit 104 zum Beispiel zuerst die Shared-Space-Rahmendaten von einer Shared-Space-Rahmendaten-DB 156 in einer Rahmenreihenfolge. Dann führt die Erkennungseinheit 104 verschiedene Arten von Erkennungsprozessen auf der Basis der akquirierten Shared-Space-Rahmendaten durch und überträgt das Erkennungsergebnis zu der Ereigniserkennungseinheit 106.
  • Ferner kann die Erkennungseinheit 104 den Erkennungsprozess (zum Beispiel Auslassen eines Teils davon) unter Verwendung der von dem Stream erhaltenen Metainformationen, die von jedem einer Vielzahl von Clients 20 empfangen wurden, reduzieren.
  • {Ereigniserkennungseinheit 106}
  • Die Ereigniserkennungseinheit 106 erzeugt Ereignisinformationen auf der Basis von chronologischen Informationen, die von der Erkennungseinheit 104 übertragen werden. Zum Beispiel erzeugt die Ereigniserkennungseinheit 106 in einem Fall, in dem der Benutzer an dem erzeugten gemeinsam genutzten Raum teilnimmt und der Benutzer auf einen in dem gemeinsam genutzten Raum befindlichen Schreibtisch zeigt, Informationen, die angeben, dass auf den Schreibtisch gezeigt wird, als die Ereignisinformationen. Ferner erzeugt die Ereigniserkennungseinheit 106 in einem Fall, in dem erkannt wird, dass der Benutzer einen Laptop-PC auf einem Schreibtisch innerhalb eines realen Raums, in dem sich der Benutzer befindet, hoch hebt, Informationen, die angeben, dass der Laptop-PC hoch gehoben wird, als die Ereignisinformationen.
  • Ferner überträgt die Ereigniserkennungseinheit 106 die erzeugten Ereignisinformationen zu der Steuereinheit 108.
  • {Steuereinheit 108}
  • Die Steuereinheit 108 erzeugt dritte Steuerinformationen auf der Basis der von der Ereigniserkennungseinheit 106 übertragenen Ereignisinformationen. Dann überträgt die Steuereinheit 108 die erzeugten dritten Steuerinformationen zu der Shared-Space-Erzeugungseinheit 102. Hier können die dritten Steuerinformationen Informationen sein, die verwendet werden, wenn der gemeinsam genutzte Raum durch die Shared-Space-Erzeugungseinheit 102 erzeugt wird.
  • {Shared-Space-Erzeugungseinheit 102}
  • Die Shared-Space-Erzeugungseinheit 102 erzeugt die Shared-Space-Rahmendaten auf der Basis der von den Streams erhaltenen Rahmendaten und Metainformationen, die von einer Vielzahl von Clients 20 empfangen (das heißt von einer Vielzahl von Clients 20 bereitgestellt) werden. Ferner, wie in 6 dargestellt, weist die Shared-Space-Erzeugungseinheit 102 eine Synchronisierungseinheit 150, eine Shared-Space-Synthetisierungseinheit 152, eine Liefereinheit 154 und eine Shared-Space-Rahmendaten-DB 156 auf.
  • {Synchronisierungseinheit 150}
  • Die Synchronisierungseinheit 150 überträgt die von jeder der Vielzahl von Clients 20 empfangenen Rahmendaten und die zweiten Steuerinformationen zu der Shared-Space-Synthetisierungseinheit 152 zusammen für jedes Informationsteil (zum Beispiel jeden Rahmen), welches das gleiche Timing aufweist.
  • {Shared-Space-Synthetisierungseinheit 152}
  • Die Shared-Space-Synthetisierungseinheit 152 erzeugt die Shared-Space-Rahmendaten auf der Basis der Rahmendaten von jedem der Vielzahl von realen Räumen, die von der Synchronisierungseinheit 150 übertragen werden. Ferner speichert die Shared-Space-Synthetisierungseinheit 152 die erzeugten Shared-Space-Rahmendaten in der Shared-Space-Rahmendaten-DB 156.
  • {Liefereinheit 154}
  • Auf der Basis der von der Shared-Space-Synthetisierungseinheit 152 erzeugten Shared-Space-Rahmendaten erzeugt die Liefereinheit 154 Rahmendaten, die zu der Ausgabeeinheit 24 in dem realen Raum für jeden realen Raum zu übertragen sind. Dann überträgt die Liefereinheit 154 jedes Stück der erzeugten Rahmendaten zu der Clientverbindungseinheit 120, die dem realen Raum des Übertragungsziels der Rahmendaten entspricht.
  • <Ausgabeeinheit 24>
  • Die Ausgabeeinheit 24 gibt den vom Server 10 empfangenen Stream (zum Beispiel den Inhalt des freien Blickpunkts) aus. Dementsprechend kann der Benutzer in dem realen Raum durch Betrachten des Ausgabeinhalts erleben, als ob der Benutzer in dem erzeugten gemeinsam genutzten Raum anwesend wäre.
  • Wie in 1 dargestellt, kann die Ausgabeeinheit 24 ein tragbares Gerät, wie zum Beispiel ein HMD oder eine Augmented-Reality-(AR)-Brille, sein. Ferner kann das HMD eine Abschirmungsausführung oder eine Videoübertragungsausführung sein. Ferner ist die Ausgabeeinheit 24 nicht auf das Beispiel des tragbaren Gerätes beschränkt, sondern kann zum Beispiel ein Projektor sein, der den vom Server 10 empfangenen Stream auf ein Projektionsziel (zum Beispiel eine Wand) in dem realen Raum projiziert. Alternativ dazu kann die Ausgabeeinheit 24 aus einer Kombination einer Vielzahl von Geräten (zum Beispiel einer Kombination aus einer AR-Brille und einem Projektor) bestehen. Ferner wird die folgende Beschreibung fortfahren, sich auf ein Beispiel zu konzentrieren, in dem die Ausgabeeinheit 24 ein tragbares Gerät ist.
  • Hier wird eine Konfiguration der Ausgabeeinheit 24 unter erneuter Bezugnahme auf 2 ausführlich beschrieben. Wie in 2 dargestellt, umfasst die Ausgabeeinheit 24 eine Empfangseinheit 240, eine Streamtrennungseinheit 242, eine Synthetisierungseinheit 244, eine Anzeigeeinheit 246, eine Sensoreinheit 248, eine Erkennungseinheit 250 und eine Steuerinformationen-Übertragungseinheit 252.
  • {Empfangseinheit 240}
  • Die Empfangseinheit 240 kann eine Kommunikationsvorrichtung, wie etwa eine Netzwerkkarte, enthalten. Die Empfangseinheit 240 empfängt den Stream vom Server 10. Ferner überträgt die Empfangseinheit 240 den empfangenen Stream zu der Streamtrennungseinheit 242.
  • {Streamtrennungseinheit 242}
  • Die Streamtrennungseinheit 242 kann ein oder mehrere Verarbeitungsschaltungen (wie z. B. eine CPU) enthalten. Zum Beispiel demultiplext die Streamtrennungseinheit 242 den von der Empfangseinheit 240 übertragenen Stream und trennt den Stream. Ferner überträgt die Streamtrennungseinheit 242 die getrennten Daten zu der Synthetisierungseinheit 244. Alternativ dazu kann die Streamtrennungseinheit 242 die getrennten Daten zu der Anzeigeeinheit 246 übertragen.
  • {Synthetisierungseinheit 244}
  • Die Synthetisierungseinheit 244 kann ein oder mehrere Verarbeitungsschaltungen (wie z. B. eine CPU) enthalten. Auf der Basis der von der Streamtrennungseinheit 242 übertragenen Daten und des von der Erkennungseinheit 250 übertragenen Erkennungsergebnisses (zum Beispiel des Erkennungsergebnisses der Position, der Stellung oder dergleichen der Anzeigeeinheit 246 oder dergleichen) erzeugt (rendert) die Synthetisierungseinheit 244 ein 3D-Video (ein Virtual Reality (VR)-Video, ein AR-Video oder dergleichen). Ferner überträgt die Synthetisierungseinheit 244 das erzeugte Video zu der Anzeigeeinheit 246.
  • {Anzeigeeinheit 246}
  • Die Anzeigeeinheit 246 kann zum Beispiel aus einem Flüssigkristalldisplay (LCD), einer organischen Leuchtdiode (OLED) oder dergleichen bestehen. Alternativ dazu kann die Anzeigeeinheit 246 ein Video auf einem transmissiven Display anzeigen. Alternativ dazu kann die Anzeigeeinheit 246 ein Projektor sein.
  • Die Anzeigeeinheit 246 zeigt das von der Synthetisierungseinheit 244 erzeugte Video oder die von der Streamtrennungseinheit 242 übertragenen Videodaten an.
  • {Sensoreinheit 248}
  • Die Sensoreinheit 248 kann verschiedene Arten von Sensoren, wie etwa eine RGB-Kamera, einen Global-Positioning-System-(GPS)-Empfänger, einen Beschleunigungssensor, ein Gyroskop und einen geomagnetischen Sensor umfassen. Zum Beispiel erkennt die Sensoreinheit 248 auf die Position, die Stellung und dergleichen der Anzeigeeinheit 246 bezogene Informationen. Ferner überträgt die Sensoreinheit 248 die erkannten Informationen zu der Erkennungseinheit 250.
  • Ferner kann die Sensoreinheit 248 aus einer einzelnen Vorrichtung oder einer Vielzahl von Vorrichtungen bestehen. Ferner können in einem Fall, in dem sie aus einer Vielzahl von Vorrichtungen besteht, Informationen, wie etwa von einer Vielzahl von Vorrichtungen akquirierte Bilder, mit einem hohen Genauigkeitsgrad durch Kalibrierung, einen Rahmensynchronisationsprozess oder dergleichen synthetisiert werden.
  • {Erkennungseinheit 250}
  • Die Erkennungseinheit 250 kann ein oder mehrere Verarbeitungsschaltungen (wie z. B. eine CPU) enthalten. Die Erkennungseinheit 250 führt den Erkennungsprozess der Position, der Stellung und dergleichen der Anzeigeeinheit 246 auf der Basis der von der Sensoreinheit 248 übertragenen Informationen durch. Ferner kann die Erkennungseinheit 250 außerdem eine Blickpunktposition des Benutzers erkennen.
  • Ferner überträgt die Erkennungseinheit 250 das Erkennungsergebnis zu der Synthetisierungseinheit 244 und der Steuerinformationen-Übertragungseinheit 252.
  • {Steuerinformationen-Übertragungseinheit 252}
  • Die Steuerinformationen-Übertragungseinheit 252 kann eine Kommunikationsvorrichtung, wie etwa eine Netzwerkkarte, enthalten. Die Steuerinformationen-Übertragungseinheit 252 überträgt das Erkennungsergebnis (Erkennungsergebnis der Position und der Stellung der Anzeigeeinheit 246 oder dergleichen), das von der Erkennungseinheit 250 zu dem Server 10 übertragen wird, als zweite Steuerinformationen.
  • <Kommunikationsnetz 26>
  • Das Kommunikationsnetz 26 ist ein drahtgebundener oder drahtloser Pfad von Informationen, die von einer mit dem Kommunikationsnetz 26 verbundenen Vorrichtung übertragen werden. Beispiele des Kommunikationsnetzes 26 können ein öffentliches Leitungsnetz, wie etwa ein Telefonnetz, das Internet und ein Satelliten-Kommunikationsnetz, verschiedene lokale Netzwerke (LANs) einschließlich Ethernet (eingetragenes Markenzeichen) und ein Wide Area Network (WAN) umfassen. Ferner kann das Kommunikationsnetz 26 ein dediziertes Netzwerk, wie etwa ein Internet Protocol-Virtual Private Network (IP-VPN), enthalten.
  • <Modifizierte Beispiele>
  • {Modifiziertes Beispiel 1}
  • Ferner ist eine Konfiguration des Informationsverarbeitungssystems gemäß der vorliegenden Ausführungsform nicht auf das obige Beispiel beschränkt. Zum Beispiel ist in der obigen Beschreibung das Beispiel beschrieben worden, in dem eine Eingabeeinheit 22 und eine Ausgabeeinheit 24 in jedem realen Raum angeordnet sind, doch die vorliegende Offenbarung ist nicht auf dieses Beispiel beschränkt, solange ein oder mehrere Einheiten in dem Informationsverarbeitungssystem jeweils als Eingabeeinheit 22 und Ausgabeeinheit 24 angeordnet sind. Ferner kann es einen realen Raum geben, in dem nur die Eingabeeinheit 22 oder nur die Ausgabeeinheit 24 angeordnet ist.
  • Ferner, obwohl die 1 und 2 das Beispiel darstellen, in dem die Eingabeeinheit 22 und die Ausgabeeinheit 24 getrennt konfiguriert sind, ist die vorliegende Offenbarung nicht auf ein solches Beispiel beschränkt. Die Eingabeeinheit 22 und die Ausgabeeinheit 24 können in ein oder mehreren realen Räumen integriert konfiguriert sein (zum Beispiel als einzelne Vorrichtung).
  • {Modifiziertes Beispiel 2}
  • Ferner kann der Server 10 als ein Server auf der Cloud konfiguriert sein, oder er kann auf einem verbundenen Client 20 konfiguriert sein.
  • Ferner ist in der obigen Beschreibung das Beispiel beschrieben worden, in dem die Shared-Space-Verwaltungseinheit 100 in einem Server enthalten ist (das heißt im Server 10), doch die vorliegende Offenbarung ist nicht auf dieses Beispiel beschränkt. Zum Beispiel kann die Funktion der Shared-Space-Verwaltungseinheit 100 durch Kooperation einer Vielzahl von Computern (nicht dargestellt) realisiert werden. Alternativ dazu können die Funktionen der oben beschriebenen Shared-Space-Verwaltungseinheit 100 auf die jeweiligen Clients 20 verteilt werden, und die jeweiligen Clients 20 können dazu ausgelegt sein, in Kooperation zu arbeiten.
  • {Modifiziertes Beispiel 3}
  • Ferner kann der Client 20 als einzelne Vorrichtung konfiguriert sein, oder er kann mit einer Vielzahl von Vorrichtungen konfiguriert sein.
  • Ferner werden in der obigen Beschreibung die Sensoreinheit 220 der Eingabeeinheit 22 und die Sensoreinheit 248 der Ausgabeeinheit 24 getrennt bereitgestellt, doch die vorliegende Offenbarung ist nicht darauf beschränkt. Zum Beispiel können die Sensoreinheit 220 und die Sensoreinheit 248 integriert konfiguriert sein, und die Sensoreinheit kann von der Eingabeeinheit 22 und der Ausgabeeinheit 24 gemeinsam genutzt werden. Ebenso sind die Erkennungseinheit 224 der Eingabeeinheit 22 und die Erkennungseinheit 250 der Ausgabeeinheit 24 integriert konfiguriert, und die Erkennungseinheit kann von der Eingabeeinheit 22 und der Ausgabeeinheit 24 gemeinsam genutzt werden.
  • {Modifiziertes Beispiel 4}
  • Ferner ist in der obigen Beschreibung das Beispiel beschrieben worden, in dem die Erkennungseinheit 224 (der Eingabeeinheit 22), die Erkennungseinheit 250 (der Ausgabeeinheit 24) und die Erkennungseinheit 104 (des Servers 10) getrennt installiert sind, doch die vorliegende Offenbarung ist nicht auf dieses Beispiel beschränkt, und eine oder zwei beliebige der Erkennungseinheit 224, der Erkennungseinheit 250 und der Erkennungseinheit 104 können nicht installiert sein. Ferner kann in diesem Fall eine weitere Erkennungseinheit dazu ausgelegt sein, außerdem einen Prozess durchzuführen, welcher der nicht installierten Erkennungseinheit entspricht.
  • {Modifiziertes Beispiel 5}
  • Ferner ist in der obigen Beschreibung das Beispiel beschrieben worden, in dem die Streamerzeugungseinheit 226 der Eingabeeinheit 22 und die Streamerzeugungseinheit 130 des Servers 10 den Multiplexierprozess durchführen, doch die Streamerzeugungseinheit 226 und die Streamerzeugungseinheit 130 führen den Multiplexierprozess eventuell nicht durch. Mit anderen Worten, es können Daten zwischen dem Server 10 und dem Client 20 übertragen werden, ohne dem Multiplexierprozess unterzogen zu werden.
  • <Beschreibung des Problems>
  • Das Konfigurationsbeispiel des Informationsverarbeitungssystems gemäß der vorliegenden Ausführungsform ist oben beschrieben worden. Im Übrigen ist es in dem gemeinsam genutzten Raum wünschenswert, dass ein weiterer Benutzer teilnehmen kann, oder dass der Benutzer, der gegenwärtig teilnimmt, mittendrin weggehen kann. In diesem Fall, wenn ein weiterer Benutzer dazukommt, oder wenn der teilnehmende Benutzer weggeht, ist es wünschenswert, dass das Layout des gemeinsam genutzten Raums oder die Berechtigung, auf eine Vorrichtung oder dergleichen in dem gemeinsam genutzten Raum zuzugreifen, im Einklang mit einem Wunsch des jeweiligen Benutzers adaptiv geändert werden kann.
  • In dieser Hinsicht wurde der Server 10 gemäß der vorliegenden Ausführungsform in Anbetracht des Vorstehenden erfunden. Gemäß der vorliegenden Ausführungsform kann der Server 10 in einem Fall, in dem Informationen akquiriert werden, die den Anfang oder das Ende der Nutzung des Inhalts des freien Blickpunkts durch den Benutzer angeben, Einstellungen ändern, die auf die Nutzung des Inhalts des freien Blickpunkts bezogen sind, auf der Basis der Einstellungsinformationen, die auf den Nutzungsanfang oder das Nutzungsende des Inhalts bezogen sind. Hier zum Beispiel können Informationen, die ein Erkennungsergebnis angeben, wenn die Eingabeeinheit 22 (die Sensoreinheit 220 oder dergleichen) erkennt, dass eine Manipulation zum Starten oder Beenden der Nutzung des Inhalts des freien Blickpunkts durchgeführt wird, die Informationen sein, die den Anfang oder das Ende der Nutzung des Inhalts des freien Blickpunkts angeben. Alternativ dazu können Informationen, die ein Erkennungsergebnis angeben, wenn der Server 10 (die Shared-Space-Verwaltungseinheit 100 oder dergleichen) feststellt, dass eine Manipulation zum Starten oder Beenden der Nutzung des Inhalts des freien Blickpunkts durchgeführt wird, auf der Basis des von der Eingabeeinheit 22 (der Übertragungseinheit 228) empfangenen Streams, die Informationen sein, die den Anfang oder das Ende der Nutzung des Inhalts des freien Blickpunkts angeben. Ferner kann die Manipulation zum Starten oder Beenden der Nutzung des Inhalts des freien Blickpunkts zum Beispiel durch eine Manipulation, eine Geste, eine Sichtlinienmanipulation oder eine Spracheingabe auf einer vorbestimmten Eingabevorrichtung durchgeführt werden.
  • <<Ausführliche Beschreibung der Ausführungsform>>
  • <Konfiguration>
  • Zunächst wird eine Konfiguration der vorliegenden Ausführungsform ausführlich beschrieben. Ein Merkmal der Konfiguration der vorliegenden Ausführungsform betrifft insbesondere eine Konfiguration der Shared-Space-Erzeugungseinheit 102. Die Konfiguration der Shared-Space-Erzeugungseinheit 102 wird unter Bezugnahme auf 7 ausführlicher beschrieben.
  • {Shared-Space-Erzeugungseinheit 102}
  • (Einstellungsinformationen-DB 160)
  • Wie in 7 dargestellt, enthält die Shared-Space-Erzeugungseinheit 102 ferner eine Einstellungsinformationen-DB 160. Die Einstellungsinformationen-DB 160 ist ein Beispiel der ersten Einstellungsinformationen und der zweiten Einstellungsinformationen in der vorliegenden Offenbarung. Die Einstellungsinformationen-DB 160 ist eine Datenbank, die auf die Erzeugung oder Änderung des gemeinsam genutzten Raums bezogene Einstellungsinformationen speichert, die dem Inhalt des freien Blickpunkts entsprechen, wenn die Nutzung des Inhalts des freien Blickpunkts durch den Benutzer gestartet oder beendet wird. 8 ist ein Diagramm, das ein Konfigurationsbeispiel der Einstellungsinformationen-DB 160 darstellt. Wie in 8 dargestellt, umfasst die Einstellungsinformationen-DB 160 zum Beispiel eine Basisraumauswahl-Einstellungstabelle 170, eine Eintrittszeit-Basisraumwechsel-Einstellungstabelle 172, eine Austrittszeit-Basisraumwechsel-Einstellungstabelle 174, eine Austrittszeit-Vorrichtungszugangsberechtigungsänderungs-Einstellungstabelle 176 und eine Austrittszeit-Shared-Content-Zugangsberechtigungsänderungs-Einstellungstabelle 178. Ferner wird der spezifische Inhalt der jeweiligen Tabelle später beschrieben werden.
  • Ferner kann der registrierte Inhalt der Einstellungsinformationen-DB 160 über den Client 20 durch den Benutzer im jeweiligen realen Raum 2 bezeichnet oder geändert werden. Zum Beispiel kann in einem Fall, in dem die Ausgabeeinheit 24 (die Anzeigeeinheit 246) im jeweiligen realen Raum 2 einen Einstellungsbildschirm anzeigt, der Benutzer im jeweiligen realen Raum 2 in der Lage sein, durch ein vorbestimmtes Eingabeverfahren (zum Beispiel eine Manipulation, eine Geste, eine Sichtlinienmanipulation, eine Spracheingabe oder dergleichen in eine vorbestimmte Eingabevorrichtung) auf den registrierten Inhalt der Einstellungsinformationen-DB 160 zu verweisen oder diesen zu ändern. Alternativ dazu kann der Benutzer in einem Fall, in dem der Benutzer an dem gemeinsam genutzten Raum teilnimmt, in der Lage sein, durch Erkennung einer Geste oder einer Stimme des Benutzers in dem gemeinsam genutzten Raum auf den registrierten Inhalt der Einstellungsinformationen-DB 160 zu verweisen oder diesen zu ändern. Ferner kann der jeweilige Benutzer in der Lage sein, in der Einstellungsinformationen-DB 160 nur einen mit dem Benutzer oder dem realen Raum, in dem sich der Benutzer befindet, verbundenen Einstellungswert zu ändern.
  • {Shared-Space-Synthetisierungseinheit 152}
  • Wie in 7 dargestellt, umfasst die Shared-Space-Synthetisierungseinheit 152 eine Anfangsverarbeitungseinheit 400, eine Zusatzteilnahme-Verarbeitungseinheit 402, eine Endverarbeitungseinheit 404 und eine Inhaltsverarbeitungseinheit 406.
  • {Anfangsverarbeitungseinheit 400}
  • (Ob Inhalt des freien Blickpunkts erzeugt wird oder nicht)
  • In einem Fall, in dem der Inhalt des freien Blickpunkts nicht erzeugt wird, entscheidet die Anfangsverarbeitungseinheit 400, ob der Inhalt des freien Blickpunkts auf der Basis einer vorbestimmten Anfangsbedingung erzeugt wird oder nicht. Ferner, in einem Fall, in dem entschieden wird, dass der Inhalt des freien Blickpunkts erzeugt wird, erzeugt die Anfangsverarbeitungseinheit 400 den Inhalt des freien Blickpunkts (die Shared-Space-Rahmendaten).
  • Zum Beispiel entscheidet die Anfangsverarbeitungseinheit 400 in einem Fall, in dem eine vorbestimmte Anfangsbedingung erfüllt ist, dass der Inhalt des freien Blickpunkts erzeugt wird. Ferner entscheidet die Anfangsverarbeitungseinheit 400 in einem Fall, in dem die vorbestimmte Anfangsbedingung nicht erfüllt ist, dass der Inhalt des freien Blickpunkts nicht erzeugt wird.
  • - Anfangsbedingung: Auswahl eines Benutzers einer anderen Partei
  • Hier, in einer Situation, in welcher der Raum nicht gemeinsam genutzt wird, kann die vorbestimmte Anfangsbedingung erfüllt sein, wenn eine Manipulation eines bestimmten Benutzers 4a zum Auswählen eines Benutzers 4b der anderen Partei, mit dem der Benutzer 4a den Raum teilen möchte (um das Space-Sharing zu starten), von der Eingabeeinheit 22 (z. B. der Sensoreinheit 220) erkannt wird, und das Erkennungsergebnis von der Eingabeeinheit 22 (der Übertragungseinheit 228) empfangen wird. Ferner, als Verfahren zum Auswählen des anderen Benutzers, kann der andere Benutzer 4b zum Beispiel durch eine Manipulation, eine Geste, eine Sichtlinienmanipulation, eine Spracheingabe oder dergleichen in eine vorbestimmte Eingabevorrichtung von einer auf der Anzeigeeinheit 246 angezeigten Benutzerliste, die von dem Benutzer 4a betrachtet wird, ausgewählt werden. Alternativ dazu kann der Benutzer 4a den Benutzer 4b der anderen Partei durch Aussprechen eines Benutzernamens der anderen Partei direkt auswählen.
  • Zum Beispiel, wenn der bestimmte Benutzer 4a den Benutzer 4b der anderen Partei auswählt und eine Manipulation zum Starten des Space-Sharings von der Eingabeeinheit 22 erkannt wird, und ein Erkennungsergebnis von der Eingabeeinheit 22 empfangen wird, entscheidet die Anfangsverarbeitungseinheit 400, ob der Inhalt des freien Blickpunkts auf der Basis des registrierten Inhalts der Basisraumauswahl-Einstellungstabelle 170 in der Einstellungsinformationen-DB 160 erzeugt wird oder nicht.
  • Als ein Beispiel entscheidet die Anfangsverarbeitungseinheit 400, ob der Inhalt des freien Blickpunkts durch Vergleichen des mit dem Benutzer 4a verbundenen Einstellungswertes mit dem mit dem Benutzer 4b verbundenen Einstellungswert in der Basisraumauswahl-Einstellungstabelle 170 erzeugt wird oder nicht. Zum Beispiel, in einem Fall, in dem mindestens einer der Kandidaten eines gewünschten Basisraums, der mit dem Benutzer 4a verbunden ist, mit mindestens einem der Kandidaten eines gewünschten Basisraums, der mit dem Benutzer 4b in der Basisraumauswahl-Einstellungstabelle 170 verbunden ist, übereinstimmt, entscheidet die Anfangsverarbeitungseinheit 400, dass der Inhalt des freien Blickpunkts erzeugt wird, und bestimmt den übereinstimmenden Basisraumkandidaten als den Basisraum. Hier ist der Basisraum ein Raum, der die Basis des erzeugten gemeinsam genutzten Raums ist. Zum Beispiel kann ein beliebiger der Vielzahl von realen Räumen, in dem sich jeder an dem gemeinsam genutzten Raum teilnehmende Benutzer befindet, als der Basisraum bestimmt werden. Ferner können Objekte, die sich in all den realen Räumen befinden, die nicht als der Basisraum unter der Vielzahl von realen Räumen ausgewählt wurden, in den Basisraum (zum Beispiel einen leeren Bereich in dem Basisraum) platziert werden.
  • Insbesondere in einem Fall, in dem nur ein übereinstimmender Basisraumkandidat vorhanden ist, bestimmt die Anfangsverarbeitungseinheit 400 den Basisraumkandidaten als den Basisraum. Ferner, in einem Fall, in dem eine Vielzahl von übereinstimmenden Basisraumkandidaten vorhanden ist, präsentiert die Anfangsverarbeitungseinheit 400 eine Vielzahl von Basisraumkandidaten einem des Benutzers 4a und des Benutzers 4b, und bestimmt den von dem Benutzer ausgewählten Basisraumkandidaten als den Basisraum. Hier kann der Benutzer des Präsentationsziels zum Beispiel der Benutzer 4 sein, der eine Manipulation durchführt, um das Space-Sharing zu starten, oder es kann ein Benutzer sein, der in einer vorbestimmten Priorität den höchsten Rang hat. Alternativ dazu kann die Anfangsverarbeitungseinheit 400 eine Vielzahl von Basisraumkandidaten für die beiden Benutzer 4 (den Benutzer 4a und den Benutzer 4b) präsentieren und einen Basisraumkandidaten bestimmen, der von den beiden Benutzern 4 als der Basisraum vereinbart wurde.
  • Ferner, in einem Fall, in dem der gewünschte Basisraumkandidat, der mit dem Benutzer 4a verbunden ist, nicht mit dem gewünschten Basisraumkandidaten, der mit dem Benutzer 4b verbunden ist, in der Basisraumauswahl-Einstellungstabelle 170 übereinstimmt, entscheidet die Anfangsverarbeitungseinheit 400, dass der Inhalt des freien Blickpunkts nicht erzeugt wird. Ferner kann zu diesem Zeitpunkt die Anfangsverarbeitungseinheit 400 die Ausgabeeinheit 24a (zum Beispiel die Anzeigeeinheit 246) in dem realen Raum 2a, in dem sich der Benutzer 4a befindet, und die Ausgabeeinheit 24b (zum Beispiel die Anzeigeeinheit 246) in dem realen Raum 2b, in dem sich der Benutzer 4b befindet, veranlassen, Informationen auszugeben, die einen Fehler anzeigen.
  • - Anfangsbedingung: Auswahl eines Raums
  • Ferner kann eine vorbestimmte Anfangsbedingung erfüllt sein, wenn in einer Situation, in welcher der Raum nicht gemeinsam genutzt wird, eine Manipulation eines bestimmten Benutzers 4a zum Auswählen des realen Raums (das heiß des Basisraums), der als die Basis des gemeinsam genutzten Raums dient (um das Space-Sharing zu starten), durch die Eingabeeinheit 22 (z. B. die Sensoreinheit 220) erkannt wird, und das Erkennungsergebnis von der Eingabeeinheit 22 (der Übertragungseinheit 228) empfangen wird. Ferner, zum Beispiel als ein Verfahren zum Auswählen des realen Raums, kann der reale Raum von dem Benutzer 4a zum Beispiel durch eine Manipulation, eine Geste, eine Sichtlinienmanipulation, eine Spracheingabe oder dergleichen in eine vorbestimmte Eingabevorrichtung von einer auf der Anzeigeeinheit 246 angezeigten Raumliste, die von dem Benutzer 4a betrachtet wird, ausgewählt werden, oder der reale Raum kann direkt ausgewählt werden, wenn der Benutzer 4a einen Namen eines gewünschten realen Raums ausspricht.
  • Zum Beispiel entscheidet die Anfangsverarbeitungseinheit 400, ob der Inhalt des freien Blickpunkts durch Vergleichen des Einstellungswertes, der mit dem Benutzer 4a verbunden ist, mit dem Einstellungswert, der mit dem im ausgewählten realen Raum befindlichen Benutzer 4b oder dem realen Raum in der Basisraumauswahl-Einstellungstabelle 170 verbunden ist, erzeugt wird oder nicht. Zum Beispiel, in einem Fall, in dem der mit dem Benutzer 4a verbundene Einstellungswert „realer Raum eines anderen Benutzers wird als Basisraum verwendet“ angibt, und der mit dem Benutzer 4b in dem ausgewählten realen Raum verbundene Einstellungswert „jeder Raum ist in Ordnung“ in der Basisraumauswahl-Einstellungstabelle 170 angibt, entscheidet die Anfangsverarbeitungseinheit 400, dass der Inhalt des freien Blickpunkts erzeugt wird, und bestimmt den ausgewählten realen Raum als den Basisraum.
  • (Basisraumauswahl-Einstellungstabelle 170)
  • Die Basisraumauswahl-Einstellungstabelle 170 ist eine Tabelle, in der auf die Auswahl des Basisraums bezogene Einstellungsinformationen gespeichert sind. Zum Beispiel, in der Basisraumauswahl-Einstellungstabelle 170, können die Benutzer-ID und der Einstellungswert miteinander verbunden sein, oder der reale Raum und der Einstellungswert können miteinander verbunden sein. Ferner, im letzteren Fall, ohne Rücksicht auf den in dem realen Raum befindlichen Benutzer, selbst in einem Fall, in dem sich kein Benutzer in dem realen Raum befindet, gilt der gleiche Einstellungswert für die Auswahl des Basisraums. Alternativ dazu können die Benutzer-ID, der reale Raum und der Einstellungswert in der Basisraumauswahl-Einstellungstabelle 170 verbunden sein.
  • Hier sind zum Beispiel „mein realer Raum wird als Basisraum verwendet“, „realer Raum eines anderen Benutzers wird als Basisraum verwendet“, „jeder Raum ist in Ordnung“ oder dergleichen als der Einstellungswert registriert. In diesem Fall, in einem Fall, in dem der mit dem Benutzer 4a verbundene Einstellungswert „mein realer Raum wird als Basisraum verwendet“ ist, und der mit dem Benutzer 4b verbundene Einstellungswert „jeder Raum ist in Ordnung“ in der Basisraumauswahl-Einstellungstabelle 170 ist, entscheidet die Anfangsverarbeitungseinheit 400, dass der Inhalt des freien Blickpunkts erzeugt wird, und bestimmt den realen Raum 2a (in dem sich der Benutzer 4a befindet) als den Basisraum.
  • Alternativ dazu können die Identifikationsinformationen des realen Raums, wie zum Beispiel „realer Raum A“, „realer Raum B“ oder „realer Raum C“, als Einstellungswert registriert werden. In diesem Fall, in einem Fall, in dem der mit dem Benutzer 4a verbundene Einstellungswert „realer Raum A, realer Raum C und realer Raum D“ ist, und der mit dem Benutzer 4b verbundene Einstellungswert „realer Raum B und realer Raum C“ in der Basisraumauswahl-Einstellungstabelle 170 ist, deckt sich nur „realer Raum C“ mit beiden Einstellungswerten. Daher entscheidet die Anfangsverarbeitungseinheit 400, dass der Inhalt des freien Blickpunkts erzeugt wird, und bestimmt „realer Raum C“ als den Basisraum.
  • (Erzeugung des Inhalts des freien Blickpunkts)
  • Ferner, in einem Fall, in dem entschieden wird, dass der Inhalt des freien Blickpunkts erzeugt wird, erzeugt die Anfangsverarbeitungseinheit 400 den Inhalt des freien Blickpunkts durch Erzeugen des gemeinsam genutzten Raums auf der Basis des bestimmten Basisraums. Zum Beispiel bestimmt die Anfangsverarbeitungseinheit 400 den Basisraum zuerst auf der Basis des registrierten Inhalts der Einstellungsinformationen-DB 160. Dann erzeugt die Anfangsverarbeitungseinheit 400 den gemeinsam genutzten Raum, indem sie Objekte im realen Raum, der nicht der Basisraum ist, in den Basisraum platziert. Ferner erzeugt die Anfangsverarbeitungseinheit 400 die Shared-Space-Rahmendaten auf der Basis des gemeinsam genutzten Raums.
  • Hier wird ein Erzeugungsbeispiel des gemeinsam genutzten Raums unter Bezugnahme auf die 9A, 9B und 10 ausführlicher beschrieben. Ferner zeigen die 9A, 9B und 10 ein Erzeugungsbeispiel des gemeinsam genutzten Raums in einer Situation, in welcher der reale Raum 2a als der Basisraum bestimmt wird. Ferner stellen die 9A, 9B und 10 ein Beispiel dar, in dem der gemeinsam genutzte Raum erzeugt wird, indem die Objekte im realen Raum 2b in den Basisraum (das heißt, den realen Raum 2a) platziert werden. Ferner zeigen die 9A, 9B und 10 Draufsichten des realen Raums 2a und des realen Raums 2b.
  • Zum Beispiel, wie in 9A dargestellt, erzeugt die Anfangsverarbeitungseinheit 400 zuerst die Basisraum-Layoutinformationen 50, die im rechten Schaubild von 9A dargestellt sind, auf der Basis eines Ergebnisses der Objekttrennung und Objekterkennung (durch die Eingabeeinheit 22) für den (als Basisraum bestimmten) realen Raum 2a. Zu diesem Zeitpunkt, wie im rechten Schaubild von 9A dargestellt, berechnet die Anfangsverarbeitungseinheit 400 auch Informationen (eine Position, einen unteren Bereich und dergleichen) eines Leerbereichs 502 in dem Basisraum, und erzeugt die Basisraum-Layoutinformationen 50. Ferner, wie in 9B dargestellt, wird jedes Objekt 42 im realen Raum 2b auf der Basis eines Ergebnisses der Objekttrennung und Objekterkennung (durch die Eingabeeinheit 22) für den realen Raum 2b angegeben, wie in einem rechten Schaubild von 9B dargestellt.
  • Dann, wie in 10 dargestellt, platziert die Anfangsverarbeitungseinheit 400 jedes Objekt 42 im realen Raum 2b auf der Basis der Basisraum-Layoutinformationen 50 in den Basisraum.
  • (Erteilung der Befugnis an den Benutzer)
  • Ferner, in einem Fall, in dem entschieden wird, dass der Inhalt des freien Blickpunkts erzeugt wird, kann die Anfangsverarbeitungseinheit 400 dem Benutzer 4b, der sich in dem realen Raum außer dem Basisraum befindet, unter ein oder mehreren der Benutzer 4, die (anfänglich) an dem gemeinsam genutzten Raum teilnehmen, die Befugnis für den Zugriff auf das Objekt im Basisraum erteilen. Zum Beispiel erteilt die Anfangsverarbeitungseinheit 400 dem Benutzer 4b (bedingungslos) die Befugnis, auf eine Vorrichtung in dem Basisraum zuzugreifen. Hier kann die Vorrichtung ein Heimnetzwerkgerät, ein Internet-der-Dinge-(IoT)-Gerät oder dergleichen einschließen. Zum Beispiel schließt die Vorrichtung ein audio-visuelles (AV) Gerät, eine Beleuchtungsvorrichtung, eine Klimaanlage oder dergleichen ein.
  • Ferner, in einem Fall, in dem die Reproduktion eines bestimmten Inhalts in dem Basisraum gestartet wird, nachdem der Inhalt des freien Blickpunkts erzeugt worden ist, kann die Anfangsverarbeitungseinheit 400 (mit) dem Benutzer 4b, der sich in dem realen Raum befindet, Informationen bereitstellen (teilen), um zu ermöglichen, dass der Inhalt in dem realen Raum außer dem Basisraum reproduziert wird (im Folgenden als „Reproduktionsinformationen“ bezeichnet). Hier können die Reproduktionsinformationen zum Beispiel Kanalinformationen eines Programms umfassen, das von einem Fernsehempfänger in dem gemeinsam genutzten Raum angezeigt wird, und einen Uniform Resource Locator (URL) einer Webseite, die auf einem Web-Browser angezeigt wird, der auf einem vorbestimmten Endgerät in dem gemeinsam genutzten Raum aktiviert wird. Ferner können die Reproduktionsinformationen einen URL eines Netzwerk-Streaminginhalts (wie etwa Video-Streaminginhalt), Informationen einer aktuellen Reproduktionszeit, Befugnisinformationen des Benutzers 4a, der sich in (demselben Raum wie) dem Basisraum befindet, die auf den Netzwerk-Streaminginhalt bezogen sind, und dergleichen umfassen. Solchen Prozessbeispielen entsprechend, kann der Benutzer 4b, der sich in dem realen Raum außer dem Basisraum befindet, auch frei auf die Vorrichtung in dem Basisraum oder den gemeinsam genutzten Inhalt in dem Basisraum zugreifen. Zum Beispiel kann der Benutzer 4b den Inhalt zu dem gleichen Zeitpunkt wie dem Reproduktionszeitpunkt des gemeinsam genutzten Inhalts, der in dem Basisraum reproduziert wird, reproduzieren. Daher ist es möglich, dem Benutzer 4a und dem Benutzer 4b ein Gefühl zu vermitteln, als ob sie zusammen in demselben Raum wären.
  • {Zusatzteilnahme-Verarbeitungseinheit 402}
  • (Bestimmung der Umschaltung des Basisraums)
  • In einem Fall, in dem nach der Erzeugung des Inhalts des freien Blickpunkts eine Manipulation eines neuen Benutzers 4a zur Teilnahme an dem gemeinsam genutzten Raum, der dem Inhalt des freien Blickpunkts entspricht, erkannt wird, entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402 auf der Basis einer vorbestimmten Bedingung, ob der dem gemeinsam genutzten Raum entsprechende Basisraum geändert wird oder nicht. Hier kann die Manipulation des neuen Benutzers 4a zur Teilnahme an dem gemeinsam genutzten Raum zum Beispiel eine Manipulation des Benutzers 4a zum Auswählen eines gemeinsam genutzten Raums sein, an dem der Benutzer 4a teilnehmen möchte, durch eine Manipulation, eine Geste, eine Sichtlinienmanipulation, eine Spracheingabe oder dergleichen in eine vorbestimmte Eingabevorrichtung von einer Shared-Space-Liste, die auf der Anzeigeeinheit 246 angezeigt und von dem Benutzer 4a betrachtet wird, oder es kann das direkte Aussprechen eines Namens eines gewünschten gemeinsam genutzten Raums (oder des Basisraums, der dem gemeinsam genutzten Raum entspricht) durch den Benutzer 4a sein.
  • - Entscheidungsbeispiel 1
  • Zum Beispiel entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, ob der aktuelle Basisraum geändert wird oder nicht, auf der Basis des Einstellungswertes, der mit dem Benutzer 4a in der Basisraumauswahl-Einstellungstabelle 170 verbunden ist. Zum Beispiel, in einem Fall, in dem der mit dem Benutzer 4a verbundene Einstellungswert in der Basisraumauswahl-Einstellungstabelle 170 „realer Raum eines anderen Benutzers wird als Basisraum verwendet“ oder „jeder Raum ist in Ordnung“ angibt, entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, dass der aktuelle Basisraum nicht geändert wird. Alternativ dazu, in einem Fall, in dem ein gewünschter Basisraumkandidat in der Basisraumauswahl-Einstellungstabelle 170 in Verbindung mit dem Benutzer 4a registriert ist und ein Basisraum, der dem gemeinsam genutzten Raum entspricht, unter den Kandidaten des gewünschten Basisraums vorhanden ist, entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, dass der aktuelle Basisraum nicht geändert wird. Mit anderen Worten, dem aktuellen Basisraum wird Priorität gegeben. Dementsprechend, da häufiges Umschalten des Basisraums verhindert wird, ist es möglich, den Einfluss auf die Aktivität des Benutzers, der an dem gemeinsam genutzten Raum teilnimmt, zu unterdrücken. Ferner kann zu diesem Zeitpunkt die Teilnahme des Benutzers 4a an dem gemeinsam genutzten Raum erlaubt werden.
  • Ferner, in einem Fall, in dem kein dem gemeinsam genutzten Raum entsprechender Basisraum unter den Kandidaten des gewünschten Basisraums, die mit dem Benutzer 4a verbunden sind, in der Basisraumauswahl-Einstellungstabelle 170 vorhanden ist, kann die Zusatzteilnahme-Verarbeitungseinheit 402 auf der Basis der Antworten auf eine Anfrage über das Umschalten des Basisraums von allen Benutzern 4b, die an dem gemeinsam genutzten Raum teilnehmen, entscheiden, ob der aktuelle Basisraum geändert wird oder nicht. Zum Beispiel präsentiert die Zusatzteilnahme-Verarbeitungseinheit 402 zuerst ein oder mehrere mit dem Benutzer 4a verbundene gewünschte Basisraumkandidaten in der Basisraumauswahl-Einstellungstabelle 170 für alle Benutzer 4b, die an dem gemeinsam genutzten Raum teilnehmen. Dann, nur in einem Fall, in dem alle Benutzer 4b zustimmen, den Basisraum auf einen der ein oder mehreren Basisraumkandidaten umzuschalten, entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, dass der aktuelle Basisraum auf den Basisraumkandidaten umgeschaltet wird.
  • - Entscheidungsbeispiel 2
  • Ferner kann die Zusatzteilnahme-Verarbeitungseinheit 402 auf der Basis des Einstellungswertes, der mit jedem der an dem gemeinsam genutzten Raum teilnehmenden Benutzer 4b verbunden ist, in der Eintrittszeit-Basisraumwechsel-Einstellungstabelle 172 auch entscheiden, ob der aktuelle Basisraum geändert wird oder nicht. Zum Beispiel, in einem Fall, in dem mindestens ein oder mehrere der Einstellungswerte, die mit den an dem gemeinsam genutzten Raum teilnehmenden Benutzern 4b verknüpft sind, in der Eintrittszeit-Basisraumwechsel-Einstellungstabelle 172 „Umschalten der Basisräume ist nicht erlaubt“ angeben, entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, dass der aktuelle Basisraum nicht geändert wird. Ferner, in einem Fall, in dem alle Einstellungswerte, die mit den an dem gemeinsam genutzten Raum teilnehmenden Benutzern 4b verknüpft sind, in der Eintrittszeit-Basisraumwechsel-Einstellungstabelle 172 „Umschalten der Basisräume ist erlaubt“ angeben, kann die Zusatzteilnahme-Verarbeitungseinheit 402 auf der Basis der Antworten auf die Anfrage über die Umschaltung des Basisraums von allen an dem gemeinsam genutzten Raum teilnehmenden Benutzern 4b entscheiden, ob der aktuelle Basisraum geändert wird oder nicht. Gemäß dem Entscheidungsbeispiel 2 ist es in einem Fall, in dem andere Benutzer an dem gemeinsam genutzten Raum teilnehmen möchten, möglich, jeden der Benutzer, die bereits an dem gemeinsam genutzten Raum teilnehmen, von der Anforderung zu befreien, jedes Mal zu antworten, ob der Basisraum umgeschaltet wird oder nicht. Aus diesem Grund wird die Belastung jedes Benutzers reduziert.
  • - -Teilnahmezeit-Basisraumwechsel-Einstellungstabelle 172
  • Die Eintrittszeit-Basisraumwechsel-Einstellungstabelle 172 ist eine Tabelle, die Einstellungsinformationen darüber speichert, ob die Umschaltung des Basisraums in einem Fall, in dem andere Benutzer neu an dem gemeinsam genutzten Raum teilnehmen möchten, erlaubt ist oder nicht. Zum Beispiel können in der Eintrittszeit-Basisraumwechsel-Einstellungstabelle 172 die Benutzer-ID und der Einstellungswert, der reale Raum und der Einstellungswert, oder die Benutzer-ID, der reale Raum und der Einstellungswert verbunden sein. Hier können „Umschaltung des Basisraums ist erlaubt“, „Umschaltung des Basisraums ist nicht erlaubt“ und dergleichen als Einstellungswert registriert werden.
  • (Erteilung der Befugnis an einen neuen Benutzer)
  • Ferner, in einem Fall, in dem es dem neuen Benutzer 4a erlaubt ist, an dem gemeinsam genutzten Raum teilzunehmen, kann die Zusatzteilnahme-Verarbeitungseinheit 402 dem neuen Benutzer 4a die Befugnis erteilen, auf das Objekt in dem Basisraum zuzugreifen, oder dem neuen Benutzer 4a die Reproduktionsinformationen bereitstellen. Ferner ist der spezifische Inhalt im Wesentlichen demjenigen der oben beschriebenen Anfangsverarbeitungseinheit 400 ähnlich.
  • {Endverarbeitungseinheit 404}
  • (Ob Inhalt des freien Blickpunkts erzeugt wird oder nicht)
  • Die Endverarbeitungseinheit 404 ist ein Beispiel einer Nutzungseinschränkungseinheit in der vorliegenden Offenbarung. In einem Fall, in dem Informationen akquiriert werden, die das Ende der Nutzung des Inhalts des freien Blickpunkts durch den Benutzer 4a angeben, der den Inhalt des freien Blickpunkts teilt, legt die Endverarbeitungseinheit 404 auf der Basis des registrierten Inhalts der Einstellungsinformationen-DB 160 eine Einschränkung fest, die auf die Nutzung des Inhalts des freien Blickpunkts durch den anderen Benutzer 4b bezogen ist, der den Inhalt des freien Blickpunkts teilt. Hier kann die auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung Einschränkungen einschließen, die auf die Nutzung des Basisraums bezogen sind, der dem Inhalt des freien Blickpunkts und/oder dem Objekt im Basisraum entspricht.
  • Zum Beispiel legt die Endverarbeitungseinheit 404 Einschränkungen fest, die auf die Nutzung des Inhalts des freien Blickpunkts durch den anderen Benutzer 4b bezogen sind, auf der Basis eines Bestimmungsergebnisses darüber, ob der reale Raum, in dem sich der Benutzer 4a befindet (im Folgenden als „austretender Benutzer 4a“ bezeichnet), der eine Manipulation durchführt, um die Nutzung des Inhalts zu beenden, identisch mit dem Basisraum ist oder nicht. Als ein Beispiel entscheidet die Endverarbeitungseinheit 404 in einem Fall, in dem entschieden wird, dass der reale Raum, in dem der austretende Benutzer 4a sich befindet, mit dem Basisraum identisch ist, auf der Basis des registrierten Inhalts der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174 in der Einstellungsinformationen-DB 160, ob der Basisraum geändert wird oder nicht. Zum Beispiel entscheidet die Endverarbeitungseinheit 404, ob der Basisraum geändert wird oder nicht, auf der Basis des mit dem austretenden Benutzer 4a verbundenen Einstellungswertes (oder des realen Raums, in dem sich der austretende Benutzer 4a befindet) in der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174.
  • Ferner, in einem Fall, in dem entschieden wird, dass der reale Raum, in dem sich der austretende Benutzer 4a befindet, nicht mit dem Basisraum identisch ist, entscheidet die Endverarbeitungseinheit 404, dass der Basisraum nicht geändert wird.
  • (Austrittszeit-Basisraumwechsel-Einstellungstabelle 174)
  • Die Austrittszeit-Basisraumwechsel-Einstellungstabelle 174 ist eine Tabelle, die auf die Änderung des Basisraums bezogene Einstellungsinformationen speichert, zum Beispiel, wenn der Benutzer 4, der sich in demselben realen Raum wie der Basisraum befindet, den gemeinsam genutzten Raum verlässt. Zum Beispiel können in der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174 die Benutzer-ID und der Einstellungswert, der reale Raum und der Einstellungswert, oder die Benutzer-ID, der reale Raum und der Einstellungswert verbunden sein.
  • Hier können als Einstellungswert zum Beispiel „Verbindung mit Basisraum wird gelöscht“, „Zustand, in dem der Basisraum in Echtzeit zugänglich ist, wird beibehalten“ und „Basisraum wird ohne Änderung zum Austrittszeitpunkt beibehalten“ registriert werden.
  • Als ein Beispiel entscheidet die Endverarbeitungseinheit 404 in einem Fall, in dem der mit dem austretenden Benutzer 4a verbundene Einstellungswert „Zustand, in dem der Basisraum in Echtzeit zugänglich ist, wird beibehalten“ in der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174 ist, dass der aktuelle Basisraum nicht geändert wird.
  • Ferner, in einem Fall, in dem der mit dem austretenden Benutzer 4a verbundene Einstellungswert „Verbindung mit Basisraum wird gelöscht“ in der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174 angibt, entscheidet die Endverarbeitungseinheit 404, dass der Basisraum geändert wird, und bestimmt einen neuen Basisraum auf der Basis des Einstellungswertes, der mit jedem der anderen Benutzer 4b verbunden ist, die den Inhalt des freien Blickpunkts teilen, in der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174. Zum Beispiel vergleicht die Endverarbeitungseinheit 404 in diesem Fall zuerst die Kandidaten eines gewünschten Basisraums, der mit den anderen Benutzern 4b verbunden ist, in der Basisraumauswahl-Einstellungstabelle 170, und bestimmt einen übereinstimmenden Basisraumkandidaten als einen neuen Basisraum. Ferner können zu diesem Zeitpunkt alle Zugriffsbefugnisse, die jedem der anderen Benutzer 4b gewährt wurden, in Bezug auf die (tatsächliche) Vorrichtung in dem Basisraum vor der Änderung widerrufen werden.
  • Ferner kann die Endverarbeitungseinheit 404 in einem Fall, in dem der mit dem austretenden Benutzer 4a verbundene Einstellungswert „Basisraum wird ohne Änderung zum Austrittszeitpunkt beibehalten“ in der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174 angibt, die Verbindung mit dem aktuellen Basisraum trennen und den Basisraum als virtuelles Objekt speichern. Zum Beispiel legt die Endverarbeitungseinheit 404 in diesem Fall zuerst einen virtuellen Raum neu fest und kopiert das Objekt im aktuellen Basisraum auf den virtuellen Raum. Dann verknüpft die Endverarbeitungseinheit 404 alle Stücke des gemeinsam genutzten Inhalts, die in dem Basisraum reproduziert werden können, mit dem Objekt im virtuellen Raum (dementsprechend wird die Befugnis, alle Stücke der gemeinsam genutzten Inhalte zu verwalten, mit dem Objekt in dem virtuellen Raum verknüpft). Dann ändert die Endverarbeitungseinheit 404 die Befugnis für den Zugriff auf die Reproduktionsinformationen aller Stücke des gemeinsam genutzten Inhalts durch den anderen Benutzer 4b, der an dem gemeinsam genutzten Raum teilnimmt, auf der Basis des Einstellungswertes, der mit dem austretenden Benutzer 4 verbunden ist, in der Austrittszeit-Shared-Content-Zugriffsbefugnisänderungs-Einstellungstabelle 178, die später beschrieben werden wird.
  • (Änderung der Befugnis für Zugriff auf die Vorrichtung)
  • Ferner kann die Endverarbeitungseinheit 404 in einem Fall, in dem entschieden wird, dass der aktuelle Basisraum nicht geändert wird, die Befugnis für Zugriff auf ein oder mehrere Objekte in dem Basisraum durch den anderen Benutzer 4b, der an dem gemeinsam genutzten Raum teilnimmt, auf der Basis des registrierten Inhalts der Austrittszeit-Vorrichtungszugriffsbefugnisänderungs-Einstellungstabelle 176 in der Einstellungsinformationen-DB 160 ändern.
  • - Austrittszeit-Vorrichtungszugriffsbefugnisänderungs-Einstellungstabelle 176
  • Die Austrittszeit-Vorrichtungszugriffsbefugnisänderungs-Einstellungstabelle 176 ist eine Tabelle, die Einstellungsinformationen speichert, die auf die Änderung der Zugriffsbefugnis des anderen Benutzers 4b bezogen sind, der auf die Vorrichtung in dem Basisraum bezogen ist, zum Beispiel, wenn der Benutzer 4a, der sich in demselben realen Raum wie dem Basisraum befindet, den gemeinsam genutzten Raum verlässt. Zum Beispiel können die Benutzer-ID und der Einstellungswert in der Austrittszeit-Vorrichtungszugriffsbefugnisänderungs-Einstellungstabelle 176 miteinander verbunden sein, oder der reale Raum und der Einstellungswert können miteinander verbunden sein. Im letzteren Fall, zum Beispiel in einem Fall, in dem der reale Raum „Wohnzimmer“ ist, kann „alle Zugriffsbefugnisse werden widerrufen“ festgelegt werden, und in einem Fall, in dem der reale Raum „Konferenzraum“ ist, kann „Zugriffsbefugnis bleibt unverändert“ festgelegt werden. Wie oben beschrieben, kann der Schutzgrad der Privatsphäre abhängig von einem Ort angepasst werden. Alternativ dazu können in der Austrittszeit-Vorrichtungszugriffsbefugnisänderungs-Einstellungstabelle 176 die Benutzer-ID, der reale Raum und der Einstellungswert verknüpft werden.
  • Hier können als Einstellungswert zum Beispiel „Zugriffsbefugnis bleibt unverändert“, „alle Zugriffsbefugnisse werden widerrufen“, „es wird festgelegt, ob die Zugriffsbefugnis für jede Vorrichtung widerrufen wird oder nicht“ und dergleichen registriert werden. In diesem Fall, in einem Fall, in dem der mit dem austretenden Benutzer 4a verbundene Einstellungswert „alle Zugriffsbefugnisse werden widerrufen“ in der Basisraumauswahl-Einstellungstabelle 170 angibt, ändert die Endverarbeitungseinheit 404 die Zugriffsbefugnis des anderen Benutzers 4b, so dass der andere Benutzer 4b, der an dem gemeinsam genutzten Raum teilnimmt, daran gehindert wird, auf alle Vorrichtungen in dem Basisraum zuzugreifen, nachdem der austretende Benutzer 4a den gemeinsam genutzten Raum verlassen hat (das heißt, nachdem der austretende Benutzer 4a die Nutzung des Inhalts des freien Blickpunkts beendet hat).
  • (Änderung der Befugnis für Zugriff auf gemeinsam genutzten Inhalt)
  • Ferner, in einem Fall, in dem der mit dem austretenden Benutzer 4 verbundene Einstellungswert „Basisraum wird zum Austrittszeitpunkt unverändert beibehalten“ in der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174 angibt, ändert die Endverarbeitungseinheit 404 die Befugnis für Zugriff auf den gemeinsam genutzten Inhalt (zum Beispiel Video-Streaminginhalt oder dergleichen), der in dem Basisraum reproduziert werden kann, vor der Änderung durch den anderen Benutzer 4b, der an dem gemeinsam genutzten Raum teilnimmt, auf der Basis des registrierten Inhalts der Austrittszeit-Shared-Content-Zugriffsbefugnisänderungs-Einstellungstabelle 178 in der Einstellungsinformationen-DB 160.
  • - Austrittszeit-Shared-Content-Zugriffsbefugnisänderungs-Einstellungstabelle 178
  • Die Austrittszeit-Shared-Content-Zugriffsbefügnisänderungs-Einstellungstabelle 178 ist eine Tabelle, die Einstellungsinformationen speichert, die auf die Änderung der Zugriffsbefugnis des anderen Benutzers 4b bezogen sind, der auf den im Basisraum reproduzierten gemeinsam genutzten Inhalt bezogen ist, zum Beispiel, wenn der austretende Benutzer 4a, der sich in demselben realen Raum wie dem Basisraum befindet, den gemeinsam genutzten Raum verlässt. Zum Beispiel können in der Austrittszeit-Shared-Content-Zugriffsbefugnisänderungs-Einstellungstabelle 178 die Benutzer-ID und der Einstellungswert, der reale Raum und der Einstellungswert, oder die Benutzer-ID, der reale Raum und der Einstellungswert miteinander verbunden sein.
  • Hier können als Einstellungswert zum Beispiel „Zugriffsbefugnis bleibt unverändert“, „alle Zugriffsbefugnisse werden widerrufen“, „es wird festgelegt, ob die Zugriffsbefugnis für jede Vorrichtung widerrufen wird oder nicht“ für jeden Inhalt und dergleichen registriert werden. Zum Beispiel, in einem Fall, in dem der Einstellungswert, der in der Basisraumauswahl-Einstellungstabelle 170 in Verbindung mit dem austretenden Benutzer 4a registriert ist, „alle Zugriffsbefugnisse werden widerrufen“ angibt, ändert die Endverarbeitungseinheit 404 die Zugriffsbefugnis des anderen Benutzers 4b, so dass der andere Benutzer 4b, der an dem gemeinsam genutzten Raum teilnimmt, daran gehindert wird, auf alle Stücke des gemeinsam genutzten Inhalts, der in dem Basisraum reproduziert werden kann, zuzugreifen, nachdem der austretende Benutzer 4a den gemeinsam genutzten Raum verlassen hat.
  • {Inhaltsverarbeitungseinheit 406}
  • (Wenn ein Objekt hinzugefügt wird)
  • Die Inhaltsverarbeitungseinheit 406 verarbeitet den Inhalt des freien Blickpunkts, so dass die Änderung des Inhalts des freien Blickpunkts auf der Basis des Eintritts des neuen Benutzers in den gemeinsam genutzten Raum, der dem erzeugten Inhalt des freien Blickpunkts entspricht, oder das Austreten des Benutzers aus dem gemeinsam genutzten Raum bemerkt werden kann.
  • Zum Beispiel, in einem Fall, in dem entschieden wird, dass ein neues Objekt (einschließlich des Benutzers 4) in den gemeinsam genutzten Raum platziert wird (zum Beispiel in einem Fall, in dem der neue Benutzer in den gemeinsam genutzten Raum eintritt oder dergleichen), verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass der Benutzer, der an dem gemeinsam genutzten Raum teilnimmt, bemerken kann, dass das neue Objekt anzuzeigen ist. Als ein Beispiel verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass eine Animation eines vorbestimmten Zeitraums (zum Beispiel eine Minute), die angibt, dass die Anzeige des neuen Objekts gestartet wird, angezeigt wird.
  • Hier wird die oben beschriebene Funktion unter Bezugnahme auf die 11 bis 13 ausführlicher beschrieben. Ferner stellen die 11 bis 13 ein Beispiel dar, in dem der gemeinsam genutzte Raum 40 in der Reihenfolge eines gemeinsam genutzten Raums 40a, eines gemeinsam genutzten Raums 40b und eines gemeinsam genutzten Raums 40c im Laufe der Zeit erzeugt wird. Zum Beispiel, in einem Fall, in dem die Anzeige des neuen Objekts 42c gestartet wird, führt die Inhaltsverarbeitungseinheit 406 zuerst einen Prozess durch, um zu bewirken, dass ein neues Objekt 42c, dessen Transparenz auf einen Anfangswert (zum Beispiel 100 %) eingestellt wurde, angezeigt wird und die Transparenz des neuen Objekts 42c während eines vorbestimmten Zeitraums von dem Anfangswert allmählich auf 0 % verringert wird, wie in 11 dargestellt. Alternativ dazu, wie in 12 dargestellt, kann die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts verarbeiten, so dass ein Partikel 44 für einen vorbestimmten Zeitraum im Umfang des neuen Objekts 42c angezeigt wird, nachdem die Anzeige des neuen Objekts 42c gestartet worden ist. Alternativ dazu, wie in 13 dargestellt, verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass eine Animation angezeigt wird, in der eine kleine Partikelgruppe 46 von der Außenseite des gemeinsam genutzten Raums 40 weg fliegt, die Partikelgruppe 46 in dem gemeinsam genutzten Raum 40 allmählich zunimmt, und dann die Partikelgruppe 46 auf die Anzeige des Objekts 42c umgeschaltet wird. Gemäß solcher Prozessbeispiele, zum Beispiel in einem Fall, in dem ein neues Objekt (ein neuer Benutzer oder dergleichen) in den gemeinsam genutzten Raum platziert wird, wird das Objekt nicht plötzlich angezeigt. Daher kann für jeden Benutzer, der bereits an dem gemeinsam genutzten Raum teilnimmt, verhindert werden, dass er sich unwohl und überrascht fühlt.
  • Ferner kann die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts verarbeiten, so dass ein vorbestimmter Effektsound zu dem Zeitpunkt ausgegeben wird, zu dem ein neues Objekt angezeigt wird.
  • (Wenn ein Objekt gelöscht wird)
  • Ferner, in einem Fall, in dem entschieden wird, dass ein oder mehrere Objekte (einschließlich des Benutzers 4) in dem gemeinsam genutzten Raum von dem gemeinsam genutzten Raum gelöscht werden (zum Beispiel in einem Fall, in dem der Benutzer, der an dem gemeinsam genutzten Raum teilnimmt, den gemeinsam genutzten Raum verlässt oder dergleichen), verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass der Benutzer, der an dem gemeinsam genutzten Raum teilnimmt, bemerken kann, dass das Objekt gelöscht wird. Zum Beispiel verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass eine Animation eines vorbestimmten Zeitraums (zum Beispiel eine Minute), die angibt, dass die Anzeige des Objekts beendet wird, angezeigt wird.
  • Hier wird die oben beschriebene Funktion unter Bezugnahme auf 14 bis 16 ausführlicher beschrieben. Ferner stellen die 14 bis 16 ein Beispiel dar, in dem der gemeinsam genutzte Raum 40 in der Reihenfolge eines gemeinsam genutzten Raums 40a, eines gemeinsam genutzten Raums 40b und eines gemeinsam genutzten Raums 40c im Laufe der Zeit erzeugt wird. Zum Beispiel verarbeitet die Inhaltsverarbeitungseinheit 406 in einem Fall, in dem entschieden wird, dass das Objekt 42c gelöscht wird, den Inhalt des freien Blickpunkts, so dass eine Animation, in der die Transparenz des Objekts 42c allmählich von 0 % auf 100 % zunimmt, und das Objekt 42c nicht angezeigt werden, so angezeigt wird, wie in 14 dargestellt. Alternativ dazu, wie in 15 dargestellt, kann die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts verarbeiten, so dass eine Animation angezeigt wird, in der ein Partikel 44 in der Nähe des Objekts 42c des Löschungsziels für einen vorbestimmten Zeitraum angezeigt wird, und dann das Objekt 42c nicht angezeigt wird. Alternativ dazu, wie in 16 dargestellt, kann die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts verarbeiten, so dass eine Animation angezeigt wird, in der das Objekt 42c des Löschungsziels in eine Partikelgruppe 46 umgewandelt wird, die Partikelgruppe 46 zur Außenseite des gemeinsam genutzten Raums 40 fliegt, während die Größe allmählich abnimmt, und dann die Partikelgruppe 46 verschwindet. Mit solchen Prozessbeispielen verschwindet das Löschungszielobjekt (der austretende Benutzer 4 oder dergleichen), das sich in dem gemeinsam genutzten Raum befindet, nicht plötzlich. Daher kann für jeden Benutzer, der bereits an dem gemeinsam genutzten Raum teilnimmt, verhindert werden, dass er sich unwohl und überrascht fühlt.
  • Ferner kann die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts verarbeiten, so dass ein vorbestimmter Effektsound zu dem Zeitpunkt ausgegeben wird, zu dem das Löschungszielobjekt nicht angezeigt wird.
  • (Wenn der Basisraum gewechselt wird)
  • Ferner, in einem Fall, in dem die Zusatzteilnahme-Verarbeitungseinheit 402 oder die Endverarbeitungseinheit 404 entscheidet, dass der Basisraum gewechselt wird, verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass der an dem gemeinsam genutzten Raum teilnehmende Benutzer den Wechsel des Basisraums bemerken kann. Zum Beispiel verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass eine Animation eines vorbestimmten Zeitraums (zum Beispiel 10 Sekunden), die angibt, dass der Basisraum zu wechseln ist, angezeigt wird.
  • Hier wird die oben beschriebene Funktion unter Bezugnahme auf 17 und 18 ausführlicher beschrieben. Ferner stellen die 17 und 18 ein Beispiel dar, in dem der gemeinsam genutzte Raum 40 in der Reihenfolge eines gemeinsam genutzten Raums 40a und eines gemeinsam genutzten Raums 40b (und eines gemeinsam genutzten Raums 40c) im Laufe der Zeit erzeugt wird. Zum Beispiel, in einem Fall, in dem entschieden wird, dass der Basisraum gewechselt wird, veranlasst die Inhaltsverarbeitungseinheit 406 zuerst, dass der Basisraum nach dem Wechsel, dessen Transparenz auf einen Anfangswert (zum Beispiel 100 %) eingestellt ist, auf dem Basisraum vor dem Wechsel überlagert anzuzeigen ist, wie in 17 dargestellt. Dann führt die Inhaltsverarbeitungseinheit 406 einen Prozess der allmählichen Erhöhung der Transparenz des Basisraums vor dem Wechsel von 0 % auf 100 % während eines vorbestimmten Zeitraums und der allmählichen Verringerung der Transparenz des Basisraums nach dem Wechsel von dem Anfangswert auf 0 % durch. Ferner stellt 17 ein Beispiel dar, in dem das Objekt 42c sich in dem Basisraum vor dem Wechsel befindet, und das Objekt 42d sich in dem Basisraum nach dem Wechsel befindet.
  • Ferner, wie in 18 dargestellt, kann die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts verarbeiten, so dass eine Animation angezeigt wird, in der alle Objekte, die vor und nach dem Wechsel des Basisraums zusammen angezeigt werden (zum Beispiel der Benutzer, der in dem gemeinsam genutzten Raum verbleibt, nachdem der Basisraum gewechselt worden ist, oder dergleichen) aus dem Basisraum vor dem Wechsel heraus fliegen und sich aus ihm heraus und in den Basisraum nach dem Wechsel hinein bewegen. Mit solchen Prozessbeispielen wird in einem Fall, in dem der Basisraum gewechselt wird ein Video des Inhalts des freien Blickpunkts angezeigt, um nahtlos bemerkt zu werden. Daher kann für jeden Benutzer, der bereits an dem gemeinsam genutzten Raum teilnimmt, verhindert werden, dass er sich unwohl und überrascht fühlt.
  • Ferner kann die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts verarbeiten, so dass ein vorbestimmter Effektsound zu dem Zeitpunkt ausgegeben wird, zu dem der Basisraum gewechselt wird.
  • <Prozessablauf>
  • Die Konfiguration der vorliegenden Ausführungsform ist oben beschrieben worden. Als Nächstes wird der Ablauf eines Prozesses gemäß der vorliegenden Ausführungsform in „2-2-1. Prozessablauf zu Beginn des Space-Sharings“ bis „2-2-3. Prozessablauf zum Austrittszeitpunkt“ beschrieben.
  • {Prozessablauf zu Beginn des Space-Sharings}
  • Zunächst wird „Prozessablauf zu Beginn des Space-Sharings“ unter Bezugnahme auf die 19 und 20 beschrieben. Wie in 19 dargestellt führt zunächst der Benutzer 4a, der sich in dem realen Raum 2a befindet, eine Manipulation zum Starten des Space-Sharings durch, zum Beispiel durch Festlegen des Benutzers 4b, der sich in dem realen Raum 2b befindet. Dann erkennt die Eingabeeinheit 22a (die Sensoreinheit 220) in dem realen Raum 2a, dass die Manipulation durchgeführt wird, und überträgt ein Erkennungsergebnis zu dem Server 10 (S101).
  • Danach, in einem Fall, in dem das Erkennungsergebnis empfangen wird, extrahiert die Anfangsverarbeitungseinheit 400 des Servers 10 den mit dem Benutzer 4a verbundenen Einstellungswert in der Basisraumauswahl-Einstellungstabelle 170 von der Basisraumauswahl-Einstellungstabelle 170 (S103). Ferner extrahiert die Anfangsverarbeitungseinheit 400 den mit dem Benutzer 4b der anderen Partei verbundenen Einstellungswert in der Basisraumauswahl-Einstellungstabelle 170 von der Basisraumauswahl-Einstellungstabelle 170 (S105).
  • Dann gibt die Anfangsverarbeitungseinheit 400 auswählbare Basisraumkandidaten auf der Basis des in S103 extrahierten Einstellungswertes und des in S105 extrahierten Einstellungswertes an, und erzeugt anschließend eine Liste von angegebenen Basisraumkandidaten (S107).
  • In einem Fall, in dem ein beliebiger Basisraumkandidat vorhanden ist, der überhaupt nicht in S107 angegeben ist (Nein in S109), entscheidet die Anfangsverarbeitungseinheit 400, dass der Inhalt des freien Blickpunkts nicht erzeugt wird. Dann veranlasst der Server 10 die Ausgabeeinheit 24a (zum Beispiel die Anzeigeeinheit 246) in dem realen Raum 2a, Informationen zur Angabe eines Fehlers auszugeben (S111). Ferner kann der Server 10 außerdem die Ausgabeeinheit 24b in dem realen Raum 2b veranlassen, die Informationen zur Angabe eines Fehlers auszugeben. Danach endet der „Prozess, wenn Space-Sharing gestartet wird“.
  • Andererseits, in einem Fall, in dem nur ein Basisraumkandidat angegeben wird (Ja in S109 und Nein in S113), führt die Anfangsverarbeitungseinheit 400 den Prozess von S121 durch, der später beschrieben werden wird.
  • Andererseits, in einem Fall, in dem eine Vielzahl von Basisraumkandidaten angegeben wird (Ja in S109 und Ja in S113), veranlasst die Anfangsverarbeitungseinheit 400 die Ausgabeeinheit 24a (zum Beispiel die Anzeigeeinheit 246), die in S107 erzeugte Liste von Basisraumkandidaten zu präsentieren, und veranlasst den Benutzer 4a, einen gewünschten Basisraumkandidaten auszuwählen (S115). Ferner, als ein modifiziertes Beispiel, bewirkt die Anfangsverarbeitungseinheit 400, dass die Liste dem Benutzer 4a und dem Benutzer 4b präsentiert wird, und veranlasst jeden der beiden Benutzer, einen gewünschten Basisraumkandidaten auszuwählen.
  • Hier wird ein Prozess nach S115 unter Bezugnahme auf 20 beschrieben. Nach S115 bestimmt die Anfangsverarbeitungseinheit 400 den in S115 ausgewählten Basisraumkandidaten oder den in S107 angegebenen Basisraumkandidaten als den Basisraum (S121).
  • Dann erzeugt die Anfangsverarbeitungseinheit 400 den gemeinsam genutzten Raum auf der Basis des realen Raums, der von dem realen Raum 2a und dem realen Raum 2b und dem in S121 bestimmten Basisraum abweicht (S123). Dann erzeugt die Anfangsverarbeitungseinheit 400 den Inhalt des freien Blickpunkts auf der Basis des erzeugten gemeinsam genutzten Raums (S125).
  • Dann gewährt die Anfangsverarbeitungseinheit 400 dem Benutzer 4, der sich in dem von dem Basisraum abweichenden realen Raum befindet (S127), die Befugnis für den Zugriff auf die Vorrichtung in dem in S121 bestimmten Basisraum.
  • Dann gewährt die Anfangsverarbeitungseinheit 400 dem Benutzer 4, der sich in dem von dem Basisraum abweichenden realen Raum befindet (S129), die Befugnis für den Zugriff auf den gemeinsam genutzten Inhalt, der in dem in S121 bestimmten Basisraum reproduziert werden kann. Danach endet der „Prozess, wenn Space-Sharing gestartet wird“.
  • {Prozessablauf zum Zeitpunkt des zusätzlichen Eintritts in den gemeinsam genutzten Raum}
  • Als Nächstes wird ein „Prozessablauf zum Zeitpunkt des zusätzlichen Eintritts in den gemeinsam genutzten Raum“ unter Bezugnahme auf 21 beschrieben. Ferner wird hier ein Beispiel eines Prozessablaufs in einer Situation beschrieben, in der ein Benutzer 4c, der sich in dem realen Raum 2c befindet und nicht an dem gemeinsam genutzten Raum teilnimmt, in den gemeinsam genutzten Raum eintreten möchte.
  • Wie in 21 dargestellt, führt der Benutzer 4c zuerst eine Manipulation durch, um neu in den gemeinsam genutzten Raum einzutreten, an dem der Benutzer 4c teilnehmen möchte. Dann erkennt die Eingabeeinheit 22c (die Sensoreinheit 220) in dem realen Raum 2c, dass die Manipulation durchgeführt wird, und überträgt daraufhin ein Erkennungsergebnis zu dem Server 10 (S201).
  • Danach, in einem Fall, in dem das Erkennungsergebnis empfangen wird, extrahiert die Zusatzteilnahme-Verarbeitungseinheit 402 des Servers 10 den mit dem Benutzer 4c verbundenen Einstellungswert in der Basisraumauswahl-Einstellungstabelle 170 von der Basisraumauswahl-Einstellungstabelle 170 (S203).
  • Dann entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, ob der in S203 extrahierte Einstellungswert „mein realer Raum wird als Basisraum verwendet“ angibt oder nicht (S205). In einem Fall, in dem der Einstellungswert nicht „mein realer Raum wird als Basisraum verwendet“ ist (Nein in S205), entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, dass der Basisraum, der dem gemeinsam genutzten Raum entspricht, nicht geändert wird (S207). Danach führt die Zusatzteilnahme-Verarbeitungseinheit 402 einen Prozess von S219 durch, der später beschrieben werden wird.
  • Andererseits, in einem Fall, in dem der Einstellungswert „mein realer Raum wird als Basisraum verwendet“ angibt (Ja in S205), extrahiert die Zusatzteilnahme-Verarbeitungseinheit 402 den Einstellungswert, der mit jedem Benutzer verbunden ist, der an dem gemeinsam genutzten Raum teilnimmt, in der Eintrittszeit-Basisraumwechsel-Einstellungstabelle 172 von der Eintrittszeit-Basisraumwechsel-Einstellungstabelle 172 (S209).
  • Dann entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, ob die Einstellungswerte, die mit allen in S209 extrahierten Benutzern verbunden sind, „Wechseln des Basisraums ist erlaubt“ angeben (S211). In einem Fall, in dem der Einstellungswert, der mit mindestens ein oder mehreren der Benutzer verbunden ist, nicht „Wechseln des Basisraums ist erlaubt“ angibt (Nein in S211), entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, dass der aktuelle Basisraum nicht gewechselt wird, und dass der Benutzer 4c nicht die Erlaubnis hat, in den gemeinsam genutzten Raum einzutreten. Dann veranlasst der Server 10 die Ausgabeeinheit 24c (zum Beispiel die Anzeigeeinheit 246) in dem realen Raum 2c, Informationen zur Angabe eines Fehlers auszugeben (S213). Danach endet der „Prozess zum Zeitpunkt des zusätzlichen Eintritts in den gemeinsam genutzten Raum“.
  • Andererseits, in einem Fall, in dem die auf alle Benutzer bezogenen Einstellungswerte „Wechseln des Basisraums ist erlaubt“ angeben (Ja in S211), entscheidet die Zusatzteilnahme-Verarbeitungseinheit 402, dass der aktuelle Basisraum zu dem realen Raum 2c gewechselt wird (in dem sich der Benutzer 4c befindet) (S215).
  • Dann verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass eine Animation eines vorbestimmten Zeitraums, die angibt, dass der Basisraum gewechselt wird, angezeigt wird. Dementsprechend zeigt die Ausgabeeinheit 24 (die Anzeigeeinheit 246) in dem realen Raum 2, in dem sich jeder an dem gemeinsam genutzten Raum teilnehmende Benutzer 4 befindet, die Animation an (S217).
  • Danach verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass eine Animation eines vorbestimmten Zeitraums angezeigt wird, die angibt, dass die Anzeige aller Objekte (einschließlich des Benutzers 4c), die bestimmt wurden, neu in den gemeinsam genutzten Raum zu platzieren, gestartet wird. Dementsprechend zeigt die Ausgabeeinheit 24 (Anzeigeeinheit 246) in dem realen Raum 2, in dem sich jeder an dem gemeinsam genutzten Raum teilnehmende Benutzer 4 befindet, die Animation an (S219). Danach endet der „Prozess zum Zeitpunkt des zusätzlichen Eintritts in den gemeinsam genutzten Raum“.
  • {Prozessablauf zum Zeitpunkt des Austritts}
  • Als Nächstes wird ein „Prozessablauf zum Zeitpunkt des Austritts“ unter Bezugnahme auf die 22 bis 24 beschrieben. Ferner beschreibt ein Beispiel eines Prozessablaufs in einer Situation, in der ein oder mehrere Benutzer unter drei oder mehr Benutzern den gemeinsam genutzten Raum verlassen, wenn drei oder mehr Benutzer an dem gemeinsam genutzten Raum teilnehmen.
  • Wie in 22 dargestellt, führt zuerst ein beliebiger der Benutzer 4c, die an dem gemeinsam genutzten Raum teilnehmen, eine Manipulation durch, um den gemeinsam genutzten Raum zu verlassen. Dann erkennt die Eingabeeinheit 22c (Sensoreinheit 220) in dem realen Raum 2c (in dem sich der Benutzer 4c befindet), dass die Manipulation durchgeführt wird, und überträgt ein Erkennungsergebnis zu dem Server 10 (S301).
  • Danach entscheidet die Endverarbeitungseinheit 404 des Servers 10, ob der dem gemeinsam genutzten Raum entsprechende Basisraum mit dem realen Raum 2c identisch ist oder nicht (S303). In einem Fall, in dem der Basisraum und der reale Raum 2c unterschiedlich sind (Nein in S303), führt der Server 10 einen Prozess von S353 durch, der später beschrieben werden wird.
  • Andererseits, in einem Fall, in dem der Basisraum mit dem realen Raum 2c identisch ist (Ja in S303), extrahiert die Endverarbeitungseinheit 404 den mit dem Benutzer 4c verbundenen Einstellungswert in der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174 von der Austrittszeit-Basisraumwechsel-Einstellungstabelle 174 (S305).
  • In einem Fall, in dem der extrahierte Einstellungswert „Verbindung mit Basisraum wird gelöscht“ angibt, löscht die Endverarbeitungseinheit 404 zuerst die Verbindung mit dem aktuellen Basisraum (S307). Als Nächstes bestimmt die Endverarbeitungseinheit 404 einen neuen Basisraum auf der Basis des Einstellungswertes, der mit jedem Benutzer verbunden ist, der an dem gemeinsam genutzten Raum teilnimmt, in der Basisraumauswahl-Einstellungstabelle 170 (S309). Dann entscheidet die Endverarbeitungseinheit 404, dass der beschlossene Basisraum neu zu verbinden (umzuschalten) ist (S311). Danach führt der Server 10 den Prozess von S331 durch, der später beschrieben werden wird.
  • Andererseits, in einem Fall, in dem der in S305 extrahierte Einstellungswert „Zustand, in dem auf den Basisraum in Echtzeit zugegriffen werden kann, wird beibehalten“ angibt, entscheidet die Endverarbeitungseinheit 404, dass die Verbindung mit dem aktuellen Basisraum beibehalten wird (das heißt, der Basisraum wird nicht gewechselt) (S313). Danach führt der Server 10 den Prozess von S333 durch, der später beschrieben werden wird.
  • Andererseits, in einem Fall, in dem der in S305 extrahierte Einstellungswert „Basisraum wird zum Austrittszeitpunkt ohne Änderung beibehalten“ angibt, erzeugt die Endverarbeitungseinheit 404 zuerst einen virtuellen Basisraum (S315). Dann kopiert die Endverarbeitungseinheit 404 alle Objekte im aktuellen Basisraum auf den erzeugten virtuellen Basisraum (S317). Dann löscht die Endverarbeitungseinheit 404 die Verbindung mit dem aktuellen Basisraum (S319). Dann legt die Endverarbeitungseinheit 404 den relevanten virtuellen Basisraum als einen neuen Basisraum fest (S321). Danach führt die Endverarbeitungseinheit 404 einen Prozess von S333 durch, der später beschrieben werden wird.
  • Hier wird der Ablauf nach dem Prozess S311 unter Bezugnahme auf 23 beschrieben. Wie in 23 dargestellt, verarbeitet die Inhaltsverarbeitungseinheit 406 des Servers 10 nach S311 den Inhalt des freien Blickpunkts, so dass eine Animation eines vorbestimmten Zeitraums angezeigt wird, die angibt, dass der Basisraum gewechselt wird. Dementsprechend zeigt die Ausgabeeinheit 24 (Anzeigeeinheit 246) in dem realen Raum 2, in dem sich jeder an dem gemeinsam genutzten Raum teilnehmende Benutzer 4 befindet, die Animation an (S331).
  • Danach verarbeitet die Inhaltsverarbeitungseinheit 406 den Inhalt des freien Blickpunkts, so dass eine Animation eines vorbestimmten Zeitraums angezeigt wird, die angibt, dass die Anzeige aller Objekte (einschließlich des Benutzers 4c), die bestimmt wurden, um von dem gemeinsam genutzten Raum gelöscht zu werden, beendet wird. Dementsprechend zeigt die Ausgabeeinheit 24 (Anzeigeeinheit 246) in dem realen Raum 2, in dem sich jeder an dem gemeinsam genutzten Raum teilnehmende Benutzer 4 befindet, die Animation an (S333).
  • Hier wird der Ablauf eines Prozesses nach S333 unter Bezugnahme auf 24 beschrieben. Wie in 24 dargestellt, extrahiert die Endverarbeitungseinheit 404 nach S333 den mit dem Benutzer 4c verbundenen Einstellungswert von der Austrittszeit-Vorrichtungszugriffsbefugnisänderungs-Einstellungstabelle 176 in der Austrittszeit-Vorrichtungszugriffsbefugnisänderungs-Einstellungstabelle 176 (S341).
  • Dann entscheidet die Endverarbeitungseinheit 404, ob der in S341 extrahierte Einstellungswert „alle Zugriffsbefugnisse werden widerrufen“ angibt oder nicht (S343). In einem Fall, in dem der Einstellungswert nicht „alle Zugriffsbefugnisse werden widerrufen“ angibt (Nein in S343), führt die Endverarbeitungseinheit 404 einen Prozess von S347 durch, der später beschrieben werden wird.
  • Andererseits, in einem Fall, in dem der Einstellungswert „alle Zugriffsbefugnisse werden widerrufen“ angibt (Ja in S343), ändert die Endverarbeitungseinheit 404 die Zugriffsbefugnis jedes Benutzers 4, so dass jeder an dem gemeinsam genutzten Raum teilnehmende Benutzer 4 daran gehindert wird, auf alle Vorrichtungen in dem Basisraum vor dem Wechsel zuzugreifen (S345).
  • Dann extrahiert die Endverarbeitungseinheit 404 den mit dem Benutzer 4c verbundenen Einstellungswert von der Austrittszeit-Shared-Content-Zugriffsbefugnisänderungs-Einstellungstabelle 178 in der Austrittszeit-Shared-Content-Zugriffsbefugnisänderungs-Einstellungstabelle 178 (S347).
  • Dann entscheidet die Endverarbeitungseinheit 404, ob der in S347 extrahierte Einstellungswert „alle Zugriffsbefugnisse werden widerrufen“ angibt oder nicht (S349). In einem Fall, in dem der Einstellungswert nicht „alle Zugriffsbefugnisse werden widerrufen“ angibt (Nein in S349), endet der „Prozess zum Austrittszeitpunkt“.
  • Andererseits, in einem Fall, in dem der Einstellungswert „alle Zugriffsbefugnisse werden widerrufen“ angibt (Ja in S349), ändert die Endverarbeitungseinheit 404 die Zugriffsbefugnis jedes Benutzers 4, so dass jeder an dem gemeinsam genutzten Raum teilnehmende Benutzer 4 daran gehindert wird, auf alle Stücke des gemeinsam genutzten Inhalts, der in dem Basisraum vor dem Wechsel reproduziert werden kann, zuzugreifen (S351). Danach endet der „Prozess zum Austrittszeitpunkt“.
  • Ferner, wie in 24 dargestellt, führt der Server 10 in einem Fall, in dem der aktuelle Basisraum und der reale Raum 2c in S303 unterschiedlich sind (Nein in S303), die Anzeigesteuerung einer Animation durch, die angibt, dass die Anzeige des Objekts des Löschungsziels beendet wird, die im Wesentlichen dem oben beschriebenen Prozess S333 ähnlich ist (Schritt S353). Danach endet der „Prozess zum Austrittszeitpunkt“.
  • (Modifizierte Beispiele)
  • Ferner ist in der obigen Beschreibung das Beispiel des Prozesses in der Situation, in der drei oder mehr Personen an dem gemeinsam genutzten Raum teilnehmen, beschrieben worden, doch die vorliegende Offenbarung ist nicht auf dieses Beispiel beschränkt, und sogar in einem Fall, in dem nur zwei Personen an dem gemeinsam genutzten Raum teilnehmen, kann der „Prozessablauf zum Austrittszeitpunkt“ ähnlich angewandt werden. Mit anderen Worten, ein ähnlicher Prozess kann sogar in einem Fall angewandt werden, in dem ein verbleibender Benutzer weiterhin an dem gemeinsam genutzten Raum teilnimmt, nachdem ein bestimmter Benutzer weggeht. Alternativ dazu kann der Server 10 in diesem Fall das Space-Sharing selbst beenden. Mit anderen Worten, der Server 10 kann die Lieferung des Inhalts des freien Blickpunkts zu allen Clients 20 beenden.
  • <Effekte>
  • {Effekt 1}
  • Wie oben beschrieben, ändert der Server 10 gemäß der vorliegenden Ausführungsform in einem Fall, in dem Informationen akquiriert werden, die den Anfang oder das Ende der Nutzung des Inhalts des freien Blickpunkts durch den Benutzer angeben, die Einstellungen, die auf die Nutzung des Inhalts des freien Blickpunkts bezogen sind, auf der Basis der Einstellungsinformationen, die auf den Anfang oder das Ende der Nutzung des Inhalts bezogen sind. Zum Beispiel legt der Server 10 in einem Fall, in dem die Informationen akquiriert werden, die das Ende der Nutzung des Inhalts des freien Blickpunkts durch den Benutzer angeben, auf der Basis des registrierten Inhalts der Einstellungsinformationen-DB 160 Einschränkungen fest, die auf die Nutzung des Inhalts des freien Blickpunkts bezogen sind. Dementsprechend ist es möglich, die Nutzung des Inhalts in einer Situation, in welcher der Benutzer die Nutzung des Inhalts beendet, entsprechend einzuschränken.
  • Zum Beispiel kann der Server 10 in einem Fall, in dem der Benutzer den gemeinsam genutzten Raum verlässt, die Nutzung des Inhalts durch andere Benutzer, die den gemeinsam genutzten Raum teilen, im Einklang mit dem Einstellungswert, der mit dem Benutzer verbunden ist (oder dem realen Raum, in dem der Benutzer sich befindet) in der Einstellungsinformationen-DB 160 einschränken. Ferner kann der Benutzer im Voraus einen gewünschten Wert in der Einstellungsinformationen-DB 160 bezüglich der Einstellungen des gemeinsam genutzten Raums beim Verlassen des gemeinsam genutzten Raums registrieren. Daher wird die Privatsphäre des Benutzers entsprechend geschützt, selbst nachdem der Benutzer den gemeinsam genutzten Raum verlässt.
  • {Effekt 2}
  • Ferner kann der Server 10 die Befugnis für den Zugriff auf die Vorrichtung in dem Basisraum und die Befugnis für den Zugriff auf den gemeinsam genutzten Inhalt jedes Benutzers, der an dem gemeinsam genutzten Raum teilnimmt, einheitlich verwalten. Zum Beispiel kann der Basisraum allmählich gewechselt werden, wenn ein neuer Benutzer in den gemeinsam genutzten Raum eintritt, oder der Benutzer den gemeinsam genutzten Raum verlässt, doch in diesem Fall kann der Server 10 auch die Befugnis jedes Benutzers für den Zugriff auf die Vorrichtung oder den gemeinsam genutzten Raum reibungslos verwalten (ändern).
  • <<Hardware-Konfiguration>>
  • Als Nächstes wird eine Hardware-Konfiguration des Servers 10 gemäß der Ausführungsform unter Bezugnahme auf 25 beschrieben. Wie in 25 dargestellt, umfasst der Server 10 eine CPU 900, einen Nurlesespeicher (ROM) 902, einen RAM 904, einen Bus 906, eine Schnittstelle 908, eine Speichervorrichtung 910 und eine Kommunikationsvorrichtung 912.
  • Die CPU 900, die als arithmetische Verarbeitungseinheit und Steuergerät fungiert, steuert die ganze Operation innerhalb des Servers 10 im Einklang mit verschiedenen Arten von Programmen. Ferner enthält die CPU 900 einen Prozessor, wie z. B. einen Mikroprozessor. Die CPU 900 kann als die Shared-Space-Verwaltungseinheit 100, die Streamtrennungseinheit 124 und die Streamerzeugungseinheit 130 in dem Server 10 fungieren.
  • Der ROM 902 speichert Programme, Steuerdaten, wie z. B. einen Betriebsparameter, oder dergleichen, die von der CPU 900 zu benutzen sind.
  • Der RAM 904 speichert zum Beispiel durch die CPU 900 auszuführende Programme vorübergehend.
  • Der Bus 906 schließt einen CPU-Bus oder dergleichen ein. Der Bus 906 verbindet die CPU 900, den ROM 902 und den RAM 904.
  • Die Schnittstelle 908 verbindet die Speichervorrichtung 910 und die Kommunikationsvorrichtung 912 mit dem internen Bus 906.
  • Die Speichervorrichtung 910 ist eine Vorrichtung für Datenspeicherung. Die Speichervorrichtung 910 umfasst zum Beispiel ein Speichermedium, eine Aufzeichnungsvorrichtung, die Daten in dem Speichermedium aufzeichnet, eine Auslesevorrichtung, die Daten von dem Speichermedium ausliest, eine Löschvorrichtung, die in dem Speichermedium oder dergleichen aufgezeichnete Daten löscht. Die Speichervorrichtung 910 kann als Shared-Space-Rahmendaten-DB 156 und die Einstellungsinformationen-DB 160 in dem Server 10 fungieren.
  • Die Kommunikationsvorrichtung 912 ist eine Kommunikationsschnittstelle, die eine Kommunikationsvorrichtung (z. B. Netzwerkkarte) oder dergleichen aufweist, um zum Beispiel eine Verbindung mit dem Kommunikationsnetz 26 oder dergleichen herzustellen. Ferner kann die Kommunikationsvorrichtung 912 eine Kommunikationsvorrichtung sein, die ein drahtloses LAN unterstützt, eine Kommunikationsvorrichtung, die Long Term Evolution (LTE) unterstützt, oder eine drahtgebundene Kommunikationsvorrichtung, die Kommunikation auf eine drahtgebundene Weise durchführt. Die Kommunikationsvorrichtung 912 kann als die Steuerinformationen-Übertragungseinheit 122, die Empfangseinheit 126, die Steuerinformationen-Empfangseinheit 128 und die Übertragungseinheit 132 in dem Server 10 fungiert.
  • <<Modifiziertes Beispiel>>
  • Die bevorzugte(n) Ausführungsform(en) der vorliegenden Offenbarung ist/sind oben unter Bezugnahme auf die begleitenden Zeichnungen beschriebenen worden, während die vorliegende Offenbarung nicht auf die obigen Beispiele beschränkt ist. Eine fachkundige Person mag verschiedene Änderungen und Modifikationen innerhalb des Umfangs der angehängten Ansprüche finden, und es sei darauf hingewiesen, dass sie natürlich in den technischen Umfang der vorliegenden Offenbarung fallen.
  • Ferner ist in der oben beschriebenen Ausführungsform das Beispiel, in dem die Informationsverarbeitungsvorrichtung der vorliegenden Offenbarung der Server 10 ist, beschrieben worden, doch die vorliegende Offenbarung ist nicht darauf beschränkt. Zum Beispiel kann die Informationsverarbeitungsvorrichtung ein Allzweck-PC, ein Tablet-Endgerät, eine Spielkonsole, ein Mobiltelefon, wie etwa ein Smartphone, ein tragbarer Musikplayer, ein Roboter, eine tragbare Vorrichtung, wie zum Beispiel ein HMD oder eine AR-Brille, sein.
  • Ferner müssen die Schritte des Prozessablaufs gemäß der oben beschriebenen Ausführungsform nicht unbedingt in der beschriebenen Reihenfolge ausgeführt werden. Zum Beispiel kann die Reihenfolge, in der die Schritte ausgeführt werden, gegebenenfalls geändert werden. Ferner können die Schritte teilweise parallel oder individuell anstatt in chronologischer Reihenfolge ausgeführt werden. Ferner können einige der beschriebenen Schritte ausgelassen werden, oder andere Schritte können hinzugefügt werden.
  • Ferner, im Einklang mit der oben beschriebenen Ausführungsform, ist es auch möglich, ein Computerprogramm bereitzustellen, das Hardware, wie z. B. die CPU 900, den ROM 902 und den RAM 904 veranlasst, die gleichen Funktionen wie diejenigen der Komponenten des Servers 10 gemäß der oben beschriebenen Ausführungsform auszuführen. Ferner wird ein Aufzeichnungsmedium, auf dem das Computerprogramm aufgezeichnet ist, ebenfalls bereitgestellt.
  • Ferner sind die in dieser Spezifikation beschriebenen Effekte lediglich veranschaulichende oder exemplarische Effekte, und sind nicht einschränkend. Das heißt, mit den oder anstelle der obigen Effekte(n), kann die Technologie gemäß der vorliegenden Offenbarung andere Effekte erzielen, die einer fachkundigen Person anhand der Beschreibung dieser Spezifikation offensichtlich sind.
  • Zusätzlich kann die vorliegende Technologie auch wie folgt konfiguriert werden.
    1. (1) Informationsverarbeitungsvorrichtung, die Folgendes aufweist:
      • eine Erfassungseinheit, die dazu ausgelegt ist, Informationen zu akquirieren, die ein Ende der Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, der auf der Basis des Erfassens eines realen Raums bereitgestellt wird, und der von mindestens dem ersten Benutzer und einem zweiten Benutzer gemeinsam genutzt wird; und
      • eine Nutzungseinschränkungseinheit, die dazu ausgelegt ist, eine auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung auf der Basis der Informationen, festzulegen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen.
    2. (2) Informationsverarbeitungsvorrichtung gemäß (1), in welcher der Inhalt des freien Blickpunkts Inhalt ist, der auf der Basis des Erfassens eines ersten realen Raums bereitgestellt wird, in dem sich der erste Benutzer befindet, und des Erfassens eines zweiten realen Raums, in dem sich der zweite Benutzer befindet.
    3. (3) Informationsverarbeitungsvorrichtung gemäß (2), in der die Nutzungseinschränkungseinheit die auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung nach dem Ende der Nutzung des Inhalts des freien Blickpunkts durch den ersten Benutzer auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen festlegt.
    4. (4) Informationsverarbeitungsvorrichtung gemäß (2) oder (3), in der die Nutzungseinschränkungseinheit die auf die Nutzung des Inhalts des freien Blickpunkts durch den zweiten Benutzer bezogene Einschränkung auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen festlegt.
    5. (5) Informationsverarbeitungsvorrichtung gemäß einem der Punkte (2) bis (4), in der die ersten Einstellungsinformationen mit dem ersten realen Raum verbunden sind.
    6. (6) Informationsverarbeitungsvorrichtung gemäß einem der Punkte (2) bis (5), in der die ersten Einstellungsinformationen mit dem ersten Benutzer verbunden sind.
    7. (7) Informationsverarbeitungsvorrichtung gemäß einem der Punkte (2) bis (6), in der die ersten Einstellungsinformationen Einstellungsinformationen sind, die erhalten werden, wenn die Nutzung des Inhalts des freien Blickpunkts endet.
    8. (8) Informationsverarbeitungsvorrichtung gemäß einem der Punkte (2) bis (7), in der die auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung eine Einschränkung enthält, die auf die Nutzung eines Basisraums bezogen ist, der mit dem Inhalt des freien Blickpunkts und/oder einem Objekt in dem Basisraum verbunden ist, und der Basisraum ein Raum ist, der auf einem einer Vielzahl von realen Räumen basiert, die den ersten realen Raum und den zweiten realen Raum einschließen.
    9. (9) Informationsverarbeitungsvorrichtung gemäß (8), in der die auf die Nutzung des Objekts in dem Basisraum bezogene Einschränkung eine Einschränkung einschließt, die auf den Zugriff auf das Objekt in dem Basisraum bezogen ist.
    10. (10) Informationsverarbeitungsvorrichtung gemäß (8) oder (9), in der die Nutzungseinschränkungseinheit auf den Basisraum bezogene Einstellungen auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen ändert.
    11. (11) Informationsverarbeitungsvorrichtung gemäß (10), in der die Nutzungseinschränkungseinheit den mit dem Inhalt des freien Blickpunkts verbundenen Basisraum auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen von dem ersten Basisraum zu dem zweiten Basisraum wechselt.
    12. (12) Informationsverarbeitungsvorrichtung gemäß (11), in der die Nutzungseinschränkungseinheit den ersten Basisraum zu dem zweiten Basisraum wechselt, indem sie eine Verbindung zwischen dem Inhalt des freien Blickpunkts und dem ersten Basisraum auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen löscht und den Inhalt des freien Blickpunkts mit dem zweiten Basisraum verbindet.
    13. (13) Informationsverarbeitungsvorrichtung gemäß (11) oder (12), in der die Nutzungseinschränkungseinheit einen der Vielzahl von realen Räumen als zweiten Basisraum auf der Basis der zweiten Einstellungsinformationen, die mit dem zweiten realen Raum oder dem zweiten Benutzer verbunden sind, bestimmt.
    14. (14) Informationsverarbeitungsvorrichtung gemäß einem der Punkte (11) bis (13), die ferner eine Inhaltsverarbeitungseinheit aufweist, die dazu ausgelegt ist, den Inhalt des freien Blickpunkts zu verarbeiten, um anzugeben, dass der erste Basisraum schrittweise zu dem zweiten Basisraum gewechselt wird, in einem Fall, in dem der mit dem Inhalt des freien Blickpunkts verbundene Basisraum von dem ersten Basisraum zu dem zweiten Basisraum gewechselt wird.
    15. (15) Informationsverarbeitungsvorrichtung gemäß (8) oder (9), in der das Objekt im Basisraum eine Vorrichtung einschließt, und die Nutzungseinschränkungseinheit die Befugnis des zweiten Benutzers für den Zugriff auf die Vorrichtung auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen ändert.
    16. (16) Informationsverarbeitungsvorrichtung gemäß (8) oder (9), in der das Objekt im Basisraum Inhalt einschließt, und die Nutzungseinschränkungseinheit die Befugnis des zweiten Benutzers für den Zugriff auf den Inhalt auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen ändert.
    17. (17) Informationsverarbeitungsvorrichtung gemäß (8), in der die Nutzungseinschränkungseinheit ein oder mehrere Objekte im Basisraum, die durch die ersten Einstellungsinformationen angegeben werden, vom Basisraum löscht.
    18. (18) Informationsverarbeitungsvorrichtung gemäß (17), die ferner eine Inhaltsverarbeitungseinheit einschließt, die dazu ausgelegt ist, eine Anzeigeform der ein oder mehreren Objekte in dem Inhalt des freien Blickpunkts nacheinander zu ändern, in einem Fall, in dem ein oder mehrere Objekte im Basisraum von dem Basisraum gelöscht werden.
    19. (19) Informationsverarbeitungsverfahren, das Folgendes beinhaltet:
      • Akquirieren von Informationen, die ein Ende der Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, der auf der Basis des Erfassens eines realen Raums bereitgestellt wird, und der von mindestens dem ersten Benutzer und einem zweiten Benutzer gemeinsam genutzt wird; und
      • Festlegen, durch einen Prozessor, einer auf die Nutzung des Inhalts des freien Blickpunkts bezogenen Einschränkung auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen.
    20. (20) Programm, das einen Computer veranlasst, als Folgendes zu fungieren: eine Erfassungseinheit, die dazu ausgelegt ist, Informationen zu akquirieren, die ein Ende der Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, der auf der Basis des Erfassens eines realen Raums bereitgestellt wird, und der von mindestens dem ersten Benutzer und einem zweiten Benutzer gemeinsam genutzt wird; und eine Nutzungseinschränkungseinheit, die dazu ausgelegt ist, eine auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung auf der Basis der Informationen, festzulegen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen.
  • Bezugszeichenliste
  • 10
    Server
    20
    Client
    22
    Eingabeeinheit
    24
    Ausgabeeinheit
    26
    Kommunikationsnetz
    100
    Shared-Space-Verwaltungseinheit
    102
    Shared-Space-Erzeugungseinheit
    104, 224, 250
    Erkennungseinheit
    106
    Ereigniserkennungseinheit
    108
    Steuereinheit
    120
    Clientverbindungseinheit
    122, 252
    Steuerinformationen-Übertragungseinheit
    124, 242
    Streamtrennungseinheit
    126, 240
    Empfangseinheit
    128, 222
    Steuerinformationen-Empfangseinheit
    130, 226
    Streamerzeugungseinheit
    132, 228
    Übertragungseinheit
    150
    Synchronisierungseinheit
    152
    Shared-Space-Synthetisierungseinheit
    154
    Liefereinheit
    156
    Shared-Space-Rahmendaten-DB
    160
    Einstellungsinformationen-DB
    220, 248
    Sensoreinheit
    226
    Streamerzeugungseinheit
    228
    Übertragungseinheit
    244
    Synthetisierungseinheit
    246
    Anzeigeeinheit
    400
    Anfangsverarbeitungseinheit
    402
    Zusatzteilnahme-Verarbeitungseinheit
    404
    Endverarbeitungseinheit
    406
    Inhaltsverarbeitungseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2005004487 A [0004]

Claims (20)

  1. Informationsverarbeitungsvorrichtung, die Folgendes umfasst: eine Erfassungseinheit, die dazu ausgelegt ist, Informationen zu akquirieren, die ein Ende der Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, der auf der Basis des Erfassens eines realen Raums bereitgestellt wird, und der von mindestens dem ersten Benutzer und einem zweiten Benutzer gemeinsam genutzt wird; und eine Nutzungseinschränkungseinheit, die dazu ausgelegt ist, eine auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen festzulegen.
  2. Informationsverarbeitungsvorrichtung gemäß Anspruch 1, wobei der Inhalt des freien Blickpunkts Inhalt ist, der auf der Basis des Erfassens eines ersten realen Raums, in dem sich der erste Benutzer befindet, und des Erfassens eines zweiten realen Raums, in dem sich der zweite Benutzer befindet, bereitgestellt wird.
  3. Informationsverarbeitungsvorrichtung gemäß Anspruch 2, wobei die Nutzungseinschränkungseinheit die auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung nach dem Ende der Nutzung des Inhalts des freien Blickpunkts durch den ersten Benutzer auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen festlegt.
  4. Informationsverarbeitungsvorrichtung gemäß Anspruch 2, wobei die Nutzungseinschränkungseinheit die auf die Nutzung des Inhalts des freien Blickpunkts durch den zweiten Benutzer bezogene Einschränkung auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen festlegt.
  5. Informationsverarbeitungsvorrichtung gemäß Anspruch 2, wobei die ersten Einstellungsinformationen mit dem ersten realen Raum verbunden sind.
  6. Informationsverarbeitungsvorrichtung gemäß Anspruch 2, wobei die ersten Einstellungsinformationen mit dem ersten Benutzer verbunden sind.
  7. Informationsverarbeitungsvorrichtung gemäß Anspruch 2, wobei die ersten Einstellungsinformationen Einstellungsinformationen sind, die erhalten werden, wenn die Nutzung des Inhalts des freien Blickpunkts endet.
  8. Informationsverarbeitungsvorrichtung gemäß Anspruch 2, wobei die auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung eine Einschränkung enthält, die auf die Nutzung eines Basisraums bezogen ist, der mit dem Inhalt des freien Blickpunkts und/oder einem Objekt in dem Basisraum verbunden ist, und der Basisraum ein Raum ist, der auf einem einer Vielzahl von realen Räumen basiert, die den ersten realen Raum und den zweiten realen Raum einschließen.
  9. Informationsverarbeitungsvorrichtung gemäß Anspruch 8, wobei die auf die Nutzung des Objekts im Basisraum bezogene Einschränkung eine Einschränkung einschließt, die auf den Zugriff auf das Objekt im Basisraum bezogen ist.
  10. Informationsverarbeitungsvorrichtung gemäß Anspruch 8, wobei die Nutzungseinschränkungseinheit auf den Basisraum bezogene Einstellungen auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen ändert.
  11. Informationsverarbeitungsvorrichtung gemäß Anspruch 10, wobei die Nutzungseinschränkungseinheit den mit dem Inhalt des freien Blickpunkts verbundenen Basisraum auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen von dem ersten Basisraum zu dem zweiten Basisraum wechselt.
  12. Informationsverarbeitungsvorrichtung gemäß Anspruch 11, wobei die Nutzungseinschränkungseinheit den ersten Basisraum zu dem zweiten Basisraum wechselt, indem sie eine Verbindung zwischen dem Inhalt des freien Blickpunkts und dem ersten Basisraum auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen löscht und den Inhalt des freien Blickpunkts mit dem zweiten Basisraum verbindet.
  13. Informationsverarbeitungsvorrichtung gemäß Anspruch 11, wobei die Nutzungseinschränkungseinheit einen der Vielzahl von realen Räumen als zweiten Basisraum auf der Basis der zweiten Einstellungsinformationen, die mit dem zweiten realen Raum oder dem zweiten Benutzer verbunden sind, bestimmt.
  14. Informationsverarbeitungsvorrichtung gemäß Anspruch 11, die ferner eine Inhaltsverarbeitungseinheit aufweist, die dazu ausgelegt ist, den Inhalt des freien Blickpunkts zu verarbeiten, um anzugeben, dass der erste Basisraum schrittweise zu dem zweiten Basisraum gewechselt wird, in einem Fall, in dem der mit dem Inhalt des freien Blickpunkts verbundene Basisraum von dem ersten Basisraum zu dem zweiten Basisraum gewechselt wird.
  15. Informationsverarbeitungsvorrichtung gemäß Anspruch 8, wobei das Objekt im Basisraum eine Vorrichtung einschließt, und die Nutzungseinschränkungseinheit die Befugnis des zweiten Benutzers für den Zugriff auf die Vorrichtung auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen ändert.
  16. Informationsverarbeitungsvorrichtung gemäß Anspruch 8, wobei das Objekt im Basisraum Inhalt einschließt, und die Nutzungseinschränkungseinheit die Befugnis des zweiten Benutzers für den Zugriff auf den Inhalt auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen ändert.
  17. Informationsverarbeitungsvorrichtung gemäß Anspruch 8, wobei die Nutzungseinschränkungseinheit ein oder mehrere Objekte im Basisraum, die durch die ersten Einstellungsinformationen angegeben werden, vom Basisraum löscht.
  18. Informationsverarbeitungsvorrichtung gemäß Anspruch 17, die ferner eine Inhaltsverarbeitungseinheit einschließt, die dazu ausgelegt ist, eine Anzeigeform der ein oder mehreren Objekte in dem Inhalt des freien Blickpunkts nacheinander zu ändern, in einem Fall, in dem ein oder mehrere Objekte im Basisraum von dem Basisraum gelöscht werden.
  19. Informationsverarbeitungsverfahren, das Folgendes umfasst: Akquirieren von Informationen, die ein Ende der Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, der auf der Basis des Erfassens eines realen Raums bereitgestellt wird, und der von mindestens dem ersten Benutzer und einem zweiten Benutzer gemeinsam genutzt wird; und Festlegen, durch einen Prozessor, einer auf die Nutzung des Inhalts des freien Blickpunkts bezogenen Einschränkung auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen.
  20. Programm, das einen Computer veranlasst, als Folgendes zu fungieren: eine Erfassungseinheit, die dazu ausgelegt ist, Informationen zu akquirieren, die ein Ende der Nutzung des Inhalts eines freien Blickpunkts durch einen ersten Benutzer angeben, der auf der Basis des Erfassens eines realen Raums bereitgestellt wird, und der von mindestens dem ersten Benutzer und einem zweiten Benutzer gemeinsam genutzt wird; und eine Nutzungseinschränkungseinheit, die dazu ausgelegt ist, eine auf die Nutzung des Inhalts des freien Blickpunkts bezogene Einschränkung auf der Basis der Informationen, die das Ende der Nutzung angeben, und der ersten Einstellungsinformationen festzulegen.
DE112017005879.1T 2016-11-21 2017-10-26 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm Pending DE112017005879T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-226212 2016-11-21
JP2016226212A JP2018084878A (ja) 2016-11-21 2016-11-21 情報処理装置、情報処理方法、およびプログラム
PCT/JP2017/038614 WO2018092535A1 (ja) 2016-11-21 2017-10-26 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
DE112017005879T5 true DE112017005879T5 (de) 2019-08-01

Family

ID=62145439

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017005879.1T Pending DE112017005879T5 (de) 2016-11-21 2017-10-26 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm

Country Status (4)

Country Link
US (1) US11023599B2 (de)
JP (1) JP2018084878A (de)
DE (1) DE112017005879T5 (de)
WO (1) WO2018092535A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11080417B2 (en) * 2018-06-26 2021-08-03 Google Llc Private eye-to-eye communications with wearable heads up display
JP6722786B1 (ja) * 2019-02-05 2020-07-15 凸版印刷株式会社 空間情報管理装置
US11442685B2 (en) * 2019-09-09 2022-09-13 Autodesk, Inc. Remote interaction via bi-directional mixed-reality telepresence
US11176756B1 (en) 2020-09-16 2021-11-16 Meta View, Inc. Augmented reality collaboration system
US11756225B2 (en) 2020-09-16 2023-09-12 Campfire 3D, Inc. Augmented reality collaboration system with physical device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004487A (ja) 2003-06-12 2005-01-06 Sony Corp 捕捉パス上で撮影されたサラウンド画像を処理する装置及び方法

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007294A (ja) * 2000-06-22 2002-01-11 Canon Inc 画像配信システム及び方法並びに記憶媒体
JP2002305758A (ja) * 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 臨場感通信装置及び臨場感通信システム
CN1320819C (zh) * 2002-04-05 2007-06-06 松下电器产业株式会社 允许内容接收和语音通讯的通讯终端设备
US20030196094A1 (en) * 2002-04-10 2003-10-16 Hillis W. Daniel Method and apparatus for authenticating the content of a distributed database
JP2004135051A (ja) * 2002-10-10 2004-04-30 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、記録媒体、並びにプログラム
US8095409B2 (en) * 2002-12-06 2012-01-10 Insors Integrated Communications Methods and program products for organizing virtual meetings
JP4389450B2 (ja) * 2003-02-24 2009-12-24 富士ゼロックス株式会社 作業空間形成装置
US7184531B2 (en) * 2003-06-05 2007-02-27 Siemens Communications, Inc. System and method for authorizing a party to join a conference
JP2005182331A (ja) * 2003-12-18 2005-07-07 Sony Corp 情報処理システム、サービス提供装置および方法、情報処理装置および方法、並びに、プログラムおよび記録媒体
DE102004026785B4 (de) * 2004-06-02 2006-12-28 Infineon Technologies Ag Kommunikationssystem, Kommunikationsendgerät, Konferenzsteuereinheit, Verfahren zum Steuern eines Kommunikationssystems, Verfahren zum Steuern eines Kommunikationsendgeräts und Verfahren zum Steuern einer Konferenzsteuereinheit
DE102004052440B3 (de) * 2004-10-28 2006-04-06 Infineon Technologies Ag Verfahren zum rechnergestützten Verwalten einer Telekommunikations-Konferenz und Telekommunikation-Konferenz-Servereinrichtungen
US7809124B2 (en) * 2005-02-11 2010-10-05 Microsoft Corporation Meeting lobby for web conferencing
US8082509B2 (en) * 2005-04-22 2011-12-20 Hewlett-Packard Development Company, L.P. Systems and methods for providing immediate access to virtual collaboration facilities
JP2007034895A (ja) * 2005-07-29 2007-02-08 Toshiba Corp 情報管理装置、情報管理方法、及び情報管理システム
JP4708128B2 (ja) * 2005-09-08 2011-06-22 三菱電機株式会社 携帯端末及びコンテンツ継続視聴システム
US20080189366A1 (en) * 2006-12-15 2008-08-07 Cox Richard D Online Social and Professional Networking and Collaboration Services with Enhanced Communications Capabilities
US20110137438A1 (en) * 2009-12-07 2011-06-09 Vimicro Electronics Corporation Video conference system and method based on video surveillance system
US8356316B2 (en) * 2009-12-17 2013-01-15 At&T Intellectual Property I, Lp Method, system and computer program product for an emergency alert system for audio announcement
US8650256B2 (en) * 2011-10-12 2014-02-11 International Business Machines Corporation Communications security by enforcing offline consumption and auto-termination of electronic messages
KR20130098770A (ko) * 2012-02-28 2013-09-05 한국전자통신연구원 입체감 확장형 가상 스포츠 체험 시스템
US9171333B2 (en) * 2012-07-06 2015-10-27 Nasdaq, Inc. Due diligence systems with integrated indication of required action
JP5891131B2 (ja) * 2012-07-11 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US20140123028A1 (en) * 2012-10-27 2014-05-01 Kiran Kamity Comprehensive multimedia management platform
US20140189063A1 (en) * 2012-12-27 2014-07-03 Dropbox, Inc. Content delivery via an online synchronized content management system
US9413797B2 (en) * 2013-04-23 2016-08-09 Gurulogic Microsystems Oy Data communication system and method
US20160299666A1 (en) * 2013-11-28 2016-10-13 Sony Corporation Information processing apparatus, information processing method, and program
JP2015111371A (ja) * 2013-12-06 2015-06-18 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9246972B2 (en) * 2013-12-19 2016-01-26 Activision Publishing, Inc. Content delivery methods and systems
US9306893B2 (en) * 2013-12-31 2016-04-05 Google Inc. Systems and methods for progressive message flow
JP2016062239A (ja) * 2014-09-17 2016-04-25 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US10187435B2 (en) * 2014-11-21 2019-01-22 Cisco Technology, Inc. Queued sharing of content in online conferencing
US10091257B2 (en) * 2015-02-10 2018-10-02 Cisco Technology, Inc. Managing a virtual waiting room for online meetings
US10733371B1 (en) * 2015-06-02 2020-08-04 Steelcase Inc. Template based content preparation system for use with a plurality of space types
US10084844B2 (en) * 2015-11-16 2018-09-25 International Business Machines Corporation System and method for improved user-controlled electronic file and trash management
US10404938B1 (en) * 2015-12-22 2019-09-03 Steelcase Inc. Virtual world method and system for affecting mind state
US10831805B1 (en) * 2016-11-03 2020-11-10 United Services Automobile Association (Usaa) Virtual secure rooms
JP6298523B1 (ja) * 2016-12-26 2018-03-20 株式会社コロプラ 仮想空間を介して通信するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるためのプログラム、およびコンピュータ装置
JP6981214B2 (ja) * 2017-12-05 2021-12-15 富士通株式会社 画像生成プログラム、画像生成装置及び画像生成方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004487A (ja) 2003-06-12 2005-01-06 Sony Corp 捕捉パス上で撮影されたサラウンド画像を処理する装置及び方法

Also Published As

Publication number Publication date
US11023599B2 (en) 2021-06-01
US20190303594A1 (en) 2019-10-03
WO2018092535A1 (ja) 2018-05-24
JP2018084878A (ja) 2018-05-31

Similar Documents

Publication Publication Date Title
DE112017005879T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102015100911B4 (de) Verbesserte Kommunikation zwischen entfernten Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
DE60320181T2 (de) Vorrichtung und Verfahren zur Projektion von Daten
DE112013001461B4 (de) Modifizieren des Aussehens eines Teilnehmers während einer Videokonferenz
DE112017002050B4 (de) Konfiguration für Multifaktorautorisierung
DE112012005214B4 (de) Verarbeiten von Medienströmen während einer Mehranwender-Videokonferenz
CN105608715A (zh) 一种在线合影方法及系统
CN105898341A (zh) 一种实现双人同时视频直播的方法及移动客户端
US9524698B2 (en) System and method for collectively displaying image by using a plurality of mobile devices
DE102018207518A1 (de) Verfahren und System zum Animieren eines 3D-Avatars
DE112019001702T5 (de) Verfahren, systeme, herstellungsgegenstände und vorrichtungen zur erzeugung digitaler szenen
DE102014004069A1 (de) Verfahren, Softwareprodukt und Vorrichtung zur Steuerung einer Konferenz
EP1252769B1 (de) System und verfahren zur verbreitung von bildobjekten
DE102018106108A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
JP2006185427A (ja) 3次元映像制作サービスを提供するシステムおよび方法
DE60221636T2 (de) Verfahren und vorrichtung zur verwaltung von interaktionen im standard mpeg-4
DE102012218768B4 (de) Bildverarbeitungssysteme und verwandte verfahren
DE112019000548T5 (de) Datenkommunikationssystem und Verfahren zur Verwendung des Datenkommunikationssystems
DE112021002093T5 (de) Verfahren zum ändern des blickpunkts im virtuellen raum
DE112021005672T5 (de) Erzeugen einer bewertungsmaske zur multi-faktor-berechtigungsprüfung
WO2018036663A1 (de) Verändern einer darstellung einer realität für informationszwecke
DE102012007441B4 (de) Virtuelle Transportmaschine: Task-Ins-Cubicle
DE112019004282T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
WO2019096686A2 (de) Verfahren zur darstellung eines dreidimensionalen objekts sowie diesbezügliches computerprogrammprodukt, digitales speichermedium und computersystem
DE112022002775T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm