DE102018004730A1 - Kooperationsbasierte Interaktion mit einem Video mit virtueller Realität - Google Patents

Kooperationsbasierte Interaktion mit einem Video mit virtueller Realität Download PDF

Info

Publication number
DE102018004730A1
DE102018004730A1 DE102018004730.0A DE102018004730A DE102018004730A1 DE 102018004730 A1 DE102018004730 A1 DE 102018004730A1 DE 102018004730 A DE102018004730 A DE 102018004730A DE 102018004730 A1 DE102018004730 A1 DE 102018004730A1
Authority
DE
Germany
Prior art keywords
video
output
source
orientation
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018004730.0A
Other languages
English (en)
Inventor
Stephen Joseph DiVerdi
Aaron Phillip Hertzmann
Cuong D. Nguyen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Adobe Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adobe Systems Inc filed Critical Adobe Systems Inc
Publication of DE102018004730A1 publication Critical patent/DE102018004730A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Beschrieben werden Techniken und Systeme zum Unterstützen einer kooperationsbasierten Interaktion als Teil eines VR-Videos (Virtual Reality, Virtuelle Realität VR). Bei einem Beispiel wird ein Ansichtsfenster derart erzeugt, dass ein Prüfnutzer einer Prüfnutzervorrichtung ein VR-Video, das von einem Quellennutzer einer Quellennutzervorrichtung angesehen wird, ansehen kann. Das Ansichtsfenster kann beispielsweise als Umrandung konfiguriert sein, die einen Abschnitt des VR-Videos, der von der Prüf-VR-Vorrichtung ausgegeben wird, wenigstens teilweise umgibt. In einem anderen Fall ist das Ansichtsfenster dafür konfiguriert, die Ausgabe von Vorschauen (thumbnails) innerhalb einer Ausgabe des VR-Videos durch die Prüf-VR-Vorrichtung zu unterstützen. Beschrieben werden zudem Techniken und Systeme zum Unterstützen einer Kommunikation von Kommentaren zwischen den Quellen- und Prüf-VR-Vorrichtungen. Beschrieben werden schließlich auch Techniken und Systeme zum Unterstützen einer effizienten Verteilung eines VR-Videos im Umfeld einer Contentbearbeitungsanwendung.

Description

  • Hintergrund
  • VR-Videos (Virtual Reality, Virtuelle Realität VR) haben sich in jüngster Zeit zu einer kreativen Kunstform entwickelt, die die Möglichkeiten eines Nutzers erweitert, mit einem Video zu interagieren, also beispielsweise verschiedene Abschnitte einer VR-Szene, die während der Wiedergabe des VR-Videos ausgegeben werden, anzusehen. Die erweiterten Möglichkeiten, die für die Interaktion mit einem VR-Video nutzbar sind, schränken jedoch die Möglichkeiten von Nutzern, anderweitig miteinander zu interagieren, ein. Daher können die Vorteile von VR-Videos bei erweiterter Nutzerinteraktion mit den VR-Videos andere Interaktionen seitens des Nutzers „außerhalb“ seiner Ansicht, also beispielsweise die Kommunikation mit anderen Nutzern, einschränken und stören.
  • Als Teil des Prozesses der Erstellung eines VR-Videos wünschen Profikreative beispielsweise die Beteiligung an einer kollaborations- bzw. kooperationsbasierten Prüfung zum Austausch von Rückmeldungen, um beispielsweise die Einbeziehung und Modifikation von bestimmten Objekten, Dialogen und dergleichen mehr zu spezifizieren. Gängige bei herkömmlichen zweidimensionalen Videos eingesetzte Techniken zur Unterstützung einer kooperationsbasierten Prüfung und Rückmeldung werfen jedoch zahlreiche Probleme auf und sind daher zur Nutzung mit dem VR-Video ungeeignet. Dies rührt daher, dass erweiterte Techniken, die für die Interaktion mit dem VR-Video selbst genutzt werden, die Möglichkeiten von Nutzern einschränken, „außerhalb“ der Ansicht des VR-Videos anderweitig miteinander zu interagieren, und dies selbst dann, wenn sie im selben Raum befindlich sind. Die Nutzer tragen beispielsweise gegebenenfalls entsprechende am Kopf angebrachte VR-Vorrichtungen, um das VR-Video anzusehen. Im Ergebnis sind die Nutzer daher auf jeweilige isolierte Ansichten des VR-Videos, die voneinander verschieden sein können, beschränkt und können sich untereinander nicht einfach so austauschen.
  • Bei einem herkömmlichen Beispiel für eine Kooperation, die zur Überwindung dieser Isolation genutzt wird, teilen (share) mehrere VR-Vorrichtungen eine einzige Ansicht des VR-Videos, die von einer der VR-Vorrichtungen gesteuert bzw. geregelt wird. Diese geteilte (shared) Ansicht verursacht jedoch bei denjenigen VR-Vorrichtungen, die diese Ansicht nicht steuern bzw. regeln, normalerweise Übelkeit und wird daher bei der Verwendung einer kooperationsbasierten Prüfung und Rückmeldung des VR-Videos üblicherweise vermieden. Ein Quellennutzer kann beispielsweise die Navigation in Bezug auf ein VR-Video durch eine Kopfbewegung, die von einer jeweiligen Quellen-VR-Vorrichtung detektiert wird, steuern bzw. regeln. Das VR-Video ruft jedoch, wenn es von anderen Nutzern anderer VR-Vorrichtungen angesehen wird, gegebenenfalls Übelkeit hervor. Dies rührt daher, dass die Ausgabe des VR-Videos der Kopfbewegung der anderen Nutzer nicht folgt, sondern nur von dem Quellennutzer gesteuert bzw. geregelt wird. Dieses herkömmliche Beispiel beschränkt daher den Zeitraum, in dem die anderen Nutzer die Ausgabe des VR-Videos entsprechend der Steuerung bzw. Regelung durch den Quellennutzer ansehen können, ohne dass ihnen schlecht wird. Infolgedessen werfen VR-Videos zahlreiche Probleme auf, die als Teil einer kooperationsbasierten Prüfung anderer Arten von digitalem Content, so beispielsweise bei zweidimensionalen Videos, nicht auftreten.
  • Weitere herkömmliche Techniken und Systeme, die zum Teilen von VR-Videos genutzt werden, beinhalten üblicherweise das Laden eines VR-Videos in einen Speicher, der für die VR-Vorrichtung direkt zugänglich ist, oder das Hochladen des VR-Videos in eine Remote-Datenbank, die für die VR-Vorrichtung über das Internet zugänglich ist. Diese herkömmlichen Techniken und Systeme können beispielsweise das Hinterlegen bzw. Posting in der Remote-Datenbank implizieren, was allerdings erschwert, privat zu bleiben. Herkömmliche Techniken und Systeme, die einen lokalen Speicher unterstützen, erfordern das Herunterladen des Videos und ein anschließendes Öffnen einer Abspielanwendung, womit gegebenenfalls das manuelle Eingeben einer eindeutigen URL (Uniform Resource Locator, eindeutige Ressourcenkennung) einhergeht, was frustrierend und fehleranfällig ist. Des Weiteren sind die herkömmlichen Techniken modal und erfordern daher, dass Nutzer entfernt von einer Nutzerschnittstelle, die zum Erstellen und Bearbeiten des VR-Videos genutzt wird, navigieren, um den Content mit anderen Vorrichtungen zu teilen. Dies ist ebenfalls frustrierend und ineffizient.
  • Zusammenfassung
  • Beschrieben werden Techniken und Systeme zum Unterstützen einer kollaborations- bzw. kooperationsbasierten Interaktion als Teil eines VR-Videos (Virtual Reality, Virtuelle Realität VR). Bei einem Beispiel wird ein Ansichtsfenster (viewport) derart erzeugt, dass ein Prüfnutzer einer Prüfnutzervorrichtung einen Abschnitt eines VR-Videos, der von einem Quellennutzer einer Quellennutzervorrichtung angesehen wird, bestimmen kann. Das Ansichtsfenster ist zudem dafür konfiguriert, vor Übelkeit zu schützen, die als Teil herkömmlicher Techniken des Teilens (sharing) auftritt.
  • Das Ansichtsfenster kann beispielsweise als Umrandung konfiguriert sein, die einen Abschnitt des VR-Videos, der von der Reviewing- bzw. Prüf-VR-Vorrichtung ausgegeben wird, wenigstens teilweise umgibt. Diese Umrandung wird zur Identifizierung dessen genutzt, welcher Abschnitt des VR-Videos ebenfalls von der Quellen-VR-Vorrichtung ausgegeben wird. Des Weiteren wird die Navigation von der Prüf-VR-Vorrichtung in Bezug auf das von jener Vorrichtung ausgegebene VR-Video über eine Kopfbewegung gesteuert bzw. geregelt, um beispielsweise verschiedene Abschnitte ansehen zu können. Der Ort des Ansichtsfensters wird jedoch von der Quellen-VR-Vorrichtung gesteuert bzw. geregelt. Im Ergebnis schützt das Ansichtsfenster vor Übelkeit, die bei herkömmlichen Techniken des Teilens von VR-Videos auftritt, da die Bewegung zwischen verschiedenen Abschnitten des VR-Videos der von der Prüf-VR-Vorrichtung detektierten Kopfbewegung folgt.
  • Bei einem weiteren Beispiel ist das Ansichtsfenster dafür konfiguriert, die Ausgabe von Vorschauen (thumbnails) innerhalb einer Ausgabe des VR-Videos durch die Prüf-VR-Vorrichtung zu unterstützen. Die Vorschauen entsprechen einem VR-Video entsprechend der Ausgabe durch die Quellen-VR-Vorrichtung. Wie beim vorgenannten Beispiel wird die Navigation in Bezug auf das VR-Video außerhalb des Ansichtsfensters weiterhin von der Prüf-VR-Vorrichtung gesteuert bzw. geregelt und schützt daher vor Übelkeit. Durchgeführt werden kann die Ausgabe der Vorschauen des VR-Videos innerhalb des Ansichtsfensters beim vorliegenden Beispiel zudem asynchron in Bezug auf die Zeit bei einer Ausgabe des VR-Videos, die außerhalb des Ansichtsfensters ausgegeben wird, das heißt, um verschiedene Abschnitte verschiedener Frames anzuzeigen. Es können zudem Optionen beinhaltet sein, um die Zeit oder Abschnitte des VR-Videos, die von der Prüf- und Quellen-VR-Vorrichtung ausgegeben werden, miteinander zu synchronisieren.
  • Beschrieben werden zudem Techniken und Systeme zum Unterstützen einer Kommunikation von Kommentaren zwischen den Quellen- und Prüf-VR-Vorrichtungen. Beinhalten können die Kommentare beispielsweise eine Passivrückmeldung, die automatisch und ohne Nutzereingriff durch die Quellen-VR-Vorrichtung (beispielsweise ein detektiertes Lachen) gesammelt wird, oder auch eine Aktivrückmeldung, die durch eine manuelle Interaktion des Nutzers gesammelt wird. Die Kommentare als Aktivrückmeldung können beispielsweise freihändige Linien, gesprochene Äußerungen, Text und dergleichen mehr beinhalten.
  • Die Kommentare, seien sie nun aktiv oder passiv, werden mit einer Orientierung in Bezug auf einen Abschnitt des VR-Videos (beispielsweise unter Nutzung von Koordinaten einer zweidimensionalen äquirektangulären Projektion einer Kugel) und einem Zeitstempel, der einen Frame angibt, verknüpft. Die Orientierungsdaten, der Zeitstempel und die Kommentardaten, die diese Verknüpfung beschreiben, werden als Teil der Kooperationsdaten für die Prüf-VR-Vorrichtung kommuniziert. Die Prüf-VR-Vorrichtung steuert bzw. regelt sodann auf Grundlage dieser Daten die Erzeugung und Ausgabe des Kommentars.
  • Beschrieben werden schließlich auch Techniken und Systeme zum Unterstützen einer effizienten Verteilung eines VR-Videos im Umfeld einer Contentbearbeitungsanwendung. Eine Contentbearbeitungsanwendung kann beispielsweise die Funktionalität, ein VR-Video zu verteilen, im Umfeld der Anwendung unterstützen und Kommentierungen (beispielsweise Prüfungen) als Ergebnis des Teilens empfangen, die sodann in einer Nutzerschnittstelle der Contentbearbeitungsanwendung ausgegeben werden. Auf diese Weise kann der Nutzer im Umfeld der Contentbearbeitungsanwendung bleiben und Kommentierungen auf nichtmodale Weise teilen und empfangen. Ebenfalls mit einbezogen sind zahlreiche weitere Beispiele, die nachstehend in den entsprechenden Abschnitten detaillierter beschrieben werden.
  • Die vorliegende Zusammenfassung bietet in vereinfachter Form eine Auswahl von Konzepten, die in der nachstehenden Detailbeschreibung weiter beschrieben werden. Als solches soll die vorliegende Zusammenfassung wesentliche Merkmale des beanspruchten Erfindungsgegenstandes weder identifizieren, noch soll sie als Hilfe beim Bestimmen des Umfanges des beanspruchten Erfindungsgegenstandes genutzt werden.
  • Figurenliste
  • Die Detailbeschreibung erfolgt anhand der begleitenden Figuren. Entitäten, die in den Figuren dargestellt sind, können wenigstens eine Entität bezeichnen, weshalb in der Diskussion ein Verweis auf eine einzige oder mehrere Formen der Entitäten gleichwertig erfolgen kann.
    • 1 zeigt ein System einer exemplarischen Implementierung, die dafür betreibbar ist, Techniken zur kooperationsbasierten Interaktion im Zusammenhang mit der Ausgabe eines VR-Videos gemäß vorliegender Beschreibung einzusetzen.
    • 2 zeigt eine exemplarische Implementierung, die den Betrieb einer Quellen-VR-Vorrichtung zeigt, wobei hier ein VR-Video wiedergegeben und Kooperationsdaten zur Kommunikation an die Prüf-VR-Vorrichtung von 1 erzeugt werden.
    • 3 zeigt Orientierungsverfolgungssensoren, die dafür konfiguriert sind, Verfolgungsdaten auszugeben, die durch ein Orientierungsbestimmungsmodul zum Verfolgen einer wahrscheinlichen Orientierung des Kopfes eines Quellennutzers nutzbar sind.
    • 4 zeigt eine exemplarische Implementierung eines Frames eines VR-Videos und eines entsprechenden Koordinatensystems, die zur Bestimmung eines Abschnittes des VR-Videos zur Ausgabe in Bezug auf eine durch die Orientierungsdaten von 3 definierte Orientierung nutzbar sind.
    • 5 zeigt eine exemplarische Implementierung, die den Betrieb der Prüf-VR-Vorrichtung zeigt, wobei hier ein VR-Video wiedergegeben und ein Ansichtsfenster aus den von der Quellen-VR-Vorrichtung empfangenen Kooperationsdaten erzeugt wird.
    • 6A, 6B, 6C, 6D zeigen exemplarische Implementierungen, bei denen ein Ansichtsfenster auf Grundlage einer Orientierung einer Quellen-VR-Vorrichtung erzeugt wird, um einen Abschnitt des VR-Videos anzugeben, der sowohl von Prüf- wie auch Quellen-VR-Vorrichtungen ausgegeben wird und der die Navigation der Prüf-VR-Vorrichtung in Bezug auf das VR-Video unterstützt.
    • 7A, 7B, 7C, 7D zeigen exemplarische Implementierungen, bei denen ein Ansichtsfenster auf Grundlage der Orientierung und Bewegung einer Quellen-VR-Vorrichtung erzeugt wird, um einen Abschnitt des VR-Videos durch die Bewegung des Ansichtsfensters anzugeben.
    • 8 zeigt eine weitere exemplarische Implementierung des Ansichtsfensters, die eine asynchrone Ausgabe in Bezug auf Zeit und Orientierung bei der Ausgabe des VR-Videos unterstützt.
    • 9 zeigt eine exemplarische Implementierung, bei der das Ansichtsfenster für eine Anzeige nahe an einer Zeitachse (timeline) konfiguriert ist, um Unterschiede hinsichtlich zeitlicher Orte bei der Ausgabe des VR-Videos durch die Prüf- und Quellen-VR-Vorrichtungen anzugeben.
    • 10 und 11 zeigen ein System beziehungsweise eine Prozedur bei einer exemplarischen Implementierung, bei der ein Übelkeitshemmungsabschnitt erzeugt wird, um eine Kooperation zwischen Nutzern in Bezug auf das VR-Video zu unterstützen.
    • 12 zeigt eine exemplarische Implementierung, bei der das Kooperationsmodul des Weiteren dafür konfiguriert ist, Kommentardaten unter Verwendung eines Kommentarmoduls zu sammeln.
    • 13 zeigt eine exemplarische Implementierung einer Ausgabe eines VR-Videos durch die Prüf-VR-Vorrichtung, wobei hier ein Kommentar beinhaltet ist.
    • 14 zeigt ein exemplarisches System einer Kooperation, bei der ein VR-Video über ein Ortsbereichsnetzwerk geteilt wird und Kooperationsdaten im Zusammenhang mit der Interaktion mit dem Content, beispielsweise einer Prüfung, empfangen werden.
    • 15 zeigt eine Prozedur bei einer exemplarischen Implementierung, bei der eine Kooperation über eine Drahtlosnetzwerkverbindung im Umfeld einer Ausführung einer Contentbearbeitungsanwendung durch eine Rechenvorrichtung durchgeführt wird.
    • 16 zeigt ein exemplarisches System, das verschiedene Komponenten einer exemplarischen Vorrichtung beinhaltet, die als beliebiger Typ von Rechenvorrichtung entsprechend der Beschreibung anhand 1 bis 15 implementiert und/oder genutzt werden können, um Implementierungen der hier beschriebenen Techniken zu implementieren.
  • Detailbeschreibung
  • Übersicht
  • VR-Videos (Virtual Reality, Virtuelle Realität VR) erweitern über herkömmliche zweidimensionale Videos hinausgehend die Möglichkeiten eines Nutzers, mit dem VR-Video zu interagieren, also beispielsweise verschiedene Abschnitte einer VR-Szene, die bei einer Wiedergabe des VR-Videos ausgegeben werden, anzusehen. Wie vorstehend beschrieben worden ist, schränken diese erweiterten Möglichkeiten, die für die Interaktion mit dem VR-Video nutzbar sind, jedoch die Möglichkeiten von Nutzern, anderweitig miteinander zu interagieren, ein, und dies sogar dann, wenn diese im gleichen Raum befindlich sind. Herkömmliche Techniken zum Unterstützen einer geteilten Ausgabe eines VR-Videos durch mehrere VR-Vorrichtungen können zudem Übelkeit hervorrufen und werden daher im Allgemeinen vermieden. Daher werfen VR-Videos zahlreiche Probleme auf, die als Teil einer kooperationsbasierten Prüfung von zweidimensionalen Videos oder anderen Arten von digitalem Content nicht auftreten.
  • Ein VR-Video kann beispielsweise zur Ausgabe unter Verwendung einer VR-Vorrichtung konfiguriert sein, die als Headset (beispielsweise als immersive am Kopf angebrachte Anzeige) konfiguriert ist und die jedwede Ansicht der Außenwelt blockiert. Wird eine immersive Ansicht eines VR-Videos bereitgestellt, so stört und verhindert dies nahezu jede Art von Kooperation zwischen Nutzern, die diese Vorrichtungen tragen. Dies rührt daher, dass bei herkömmlichen Systemen kaum Maßnahmen dahingehend getroffen worden sind, die Handlungen anderer Nutzer innerhalb der Ausgabe des VR-Videos wahrzunehmen. Zwei Nutzer verschiedener VR-Vorrichtungen können beispielsweise nicht ohne Weiteres auf ein spezifisches Element in einem VR-Video zeigen, da jeder Nutzer auf seine Ansicht des VR-Videos durch die jeweilige VR-Vorrichtung eingeschränkt und dadurch darin isoliert ist. Sogar dann, wenn die beiden Nutzer im selben Raum befindlich sind und daher miteinander sprechen können, ist jeder Nutzer beispielsweise auf eine jeweilige isolierte Ansicht des VR-Videos eingeschränkt. Daher sehen diese Nutzer gegebenenfalls verschiedene Abschnitte und Zeiten bei der Ausgabe des VR-Videos, was eine verbale Kommunikation „außerhalb“ der Ausgabe frustrierend und auch ineffizient macht.
  • Obwohl Techniken entwickelt worden sind, die Nutzer innerhalb einer VR-Szene als Avatare darstellen, können diese Techniken nicht effizient anzeigen, „wohin der Nutzer innerhalb der Szene sieht“, sondern sind vielmehr darauf beschränkt, einen Hinweis auf das Vorhandensein des Nutzers innerhalb der VR-Szene zu geben. Ein Nutzer, der einen Avatar eines anderen Nutzers innerhalb eines VR-Videos sieht, ist beispielsweise gegebenenfalls nicht dazu in der Lage, einigermaßen zu bestimmen, welchen Abschnitt des VR-Videos der andere sieht. Dieser Mangel an Genauigkeit kann den Nutzer zwingen, hinsichtlich des Avatars wiederholt nach vorne und hinten und in eine allgemeine Richtung, in der der Avatar positioniert ist, zu sehen, um zu bestimmen, „wohin der andere sieht“. Dies ist sowohl ineffizient wie auch frustrierend.
  • Zusätzlich werden bei einem anderen herkömmlichen System Frames eines VR-Videos als zweidimensionale äquirektanguläre Projektion einer Kugel in einer zweidimensionalen Nutzerschnittstelle angezeigt. Diese Ansicht kann ohne Weiteres von mehreren Nutzern geteilt werden. Es ist jedoch normalerweise für die Nutzer schwierig, diese zweidimensionale äquirektanguläre Projektion anzusehen und ohne Weiteres zu verstehen, was vom Auftreten einer Verzerrung herrührt, da die Kugel abgebildet wird, damit sie zwei Dimensionen entspricht. Entsprechend sind Nutzer derartiger Systeme gezwungen, zwischen einer Ansicht der zweidimensionalen äquirektangulären Projektion und der Nutzung eines Headsets zu wechseln, um zu verstehen, was als Teil eines Frames angesehen wird, und zwar beispielsweise durch stereoskopische Bilder, die aus der Projektion gebildet werden, um den Anschein von Tiefe bereitzustellen. Im Ergebnis kann diese herkömmliche Technik eine effiziente kooperationsbasierte Prüfung zwischen Nutzern infolge der Anforderungen durch mehrere Vorrichtungen nicht unterstützen.
  • Des Weiteren rufen herkömmliche Techniken zum Teilen einer Ansicht eines VR-Videos Übelkeit hervor und werden daher gemieden. Bei einem herkömmlichen Beispiel teilen Quellen- und Prüfnutzer jeweiliger Quellen- und Prüf-VR-Vorrichtungen die Ansicht bei der Ausgabe eines VR-Videos, die dafür konfiguriert ist, die Ausgabe verschiedener Ansichten innerhalb von Frames des VR-Videos, wie vorstehend beschrieben worden ist, zu unterstützen. Der Quellennutzer und die jeweilige Quellen-VR-Vorrichtung steuern bzw. regeln die Navigation in Bezug auf das VR-Video. Daher kann die Bewegung des Kopfes des Quellennutzers dafür genutzt werden, den Umstand, „wohin der Nutzer schaut“, in Bezug auf ein Frame des VR-Videos zu steuern bzw. zu regeln. Im Ergebnis wird beim Quellennutzer keine Übelkeit hervorgerufen, da die Bewegung des Kopfes des Quellennutzers der Bewegung innerhalb der VR-Szene, die als Teil des VR-Videos ausgegeben wird, folgt. Beim Prüfnutzer ruft die herkömmliche Technik demgegenüber sehr wohl Übelkeit hervor, da die Bewegung des Kopfes des Prüfnutzers der Bewegung innerhalb der VR-Szene des VR-Videos, die durch die Prüf-VR-Vorrichtung ausgegeben wird, nicht folgt. Daher schränkt dieses herkömmliche Beispiel den Zeitraum ein, in dem der Prüfnutzer die Ausgabe des VR-Videos entsprechend der Steuerung bzw. Regelung durch den Quellennutzer ansehen kann, ohne dass ihm schlecht wird.
  • Entsprechend werden Techniken und Systeme beschrieben, die die Kooperation zwischen VR-Vorrichtungen bei der Ausgabe eines VR-Videos unterstützen und die Übelkeit verringern. Bei einem Beispiel ist ein Ansichtsfenster zur Ausgabe in Verbindung mit dem VR-Video konfiguriert. Das Ansichtsfenster ist derart konfiguriert, dass ein Prüfnutzer der Prüf-VR-Vorrichtung ohne Weiteres bestimmen kann, wohin ein Quellennutzer einer Quellen-VR-Vorrichtung innerhalb der Ausgabe eines VR-Videos schaut, ohne dass ihm schlecht dabei wird.
  • Die Quellen-VR-Vorrichtung beinhaltet beispielsweise Orientierungsverfolgungssensoren, die dazu genutzt werden, die Orientierung in Bezug auf die Ausgabe des VR-Videos durch die Quellen-VR-Vorrichtung zu definieren. Die Orientierungsverfolgungssensoren können auf vielerlei Arten dafür konfiguriert sein, die Orientierung zu detektieren, darunter durch eine optische Verfolgung, durch Beschleunigungsmesser/Akzelerometer, Magnetometer, Trägheitssensoren, Kameras (die zur Augenverfolgung beispielsweise nach vorne oder hinten weisen) und dergleichen mehr. Die Orientierung kann beispielsweise dafür genutzt werden, eine wahrscheinliche Orientierung des Kopfes des Quellennutzers im dreidimensionalen Raum unter Verwendung von sechs Freiheitsgraden zu definieren, so beispielsweise eine Drehung um seitliche, längsläufige und querläufige Achsen, wie dies beim Nicken, Rollen und Gieren der Fall ist, was anhand von 3 weiter beschrieben wird.
  • Diese Orientierung wird sodann unter Bezugnahme auf Koordinaten eines Frames des VR-Videos (beispielsweise als Kugel) genutzt, um einen zweidimensionalen Abschnitt zu erzeugen, der von der Quellen-VR-Vorrichtung wiedergegeben wird, und zwar beispielsweise als stereoskopische Bilder zur Ansicht durch das jeweilige linke und rechte Auge des Quellennutzers auf Grundlage eines von einer Anzeigevorrichtung unterstützten Sichtfeldes. Der Frame kann beispielsweise als zweidimensionale äquirektanguläre Projektion einer Kugel konfiguriert sein. Das Koordinatensystem kann eine Standardbreitenkoordinate (φ) und eine Standardlängenkoordinate (λ) einsetzen, die ähnlich zu Koordinaten sind, die bei Globen und Karten der Erde Verwendung finden. Die Orientierung, die durch die Orientierung definiert ist, definiert den Umstand, „wohin der Nutzer schaut“, in Bezug auf den Frame. Auf diese Weise kann die Bewegung des Kopfes des Quellennutzers verwendet werden, um zu definieren, „wohin“ der Quellennutzer in Bezug auf eine VR-Szene des VR-Videos schaut. Andere Beispiele sind ebenfalls mit einbezogen, so beispielsweise die Orientierung der Quellen-VR-Vorrichtung selbst im dreidimensionalen Raum, und zwar beispielsweise dann, wenn eine Konfiguration als Mobiltelefon oder Tablet gegeben ist, die dafür konfiguriert sind, in einer oder mehreren Händen des Quellennutzers gehalten zu werden.
  • Beim vorliegenden Beispiel werden Orientierungsdaten, die diese Orientierung beschreiben, ebenfalls zur Unterstützung einer Kooperation mit einem Prüfnutzer einer Prüf-VR-Vorrichtung, das heißt zwischen verschiedenen VR-Vorrichtungen, genutzt. Die Orientierungsdaten, die zur Steuerung bzw. Regelung der Ausgabe des VR-Videos durch die Quellen-VR-Vorrichtung genutzt werden, werden ebenfalls an eine Prüf-VR-Vorrichtung eines Prüfnutzers kommuniziert. Beim vorliegenden Beispiel wird die Netzwerk- und Recheneffizienz dadurch erhöht, dass die Orientierungsdaten und nicht das VR-Video selbst kommuniziert werden, was vor einer „Verzögerung“ (lag), die bei der Ausgabe des VR-Videos durch die Prüfvorrichtung auftritt, schützt.
  • Die Orientierungsdaten werden sodann von der Prüf-VR-Vorrichtung genutzt, um ein Ansichtsfenster zu erzeugen, das denjenigen Abschnitt des VR-Videos, der von der Quellen-VR-Vorrichtung ausgegeben wird, angibt. Auf diese Weise kann der Prüfnutzer der Prüf-VR-Vorrichtung einen Abschnitt des VR-Videos, der von der Quellen-VR-Vorrichtung ausgegeben wird, effizient und akkurat bestimmen. Zusätzlich kann das Ansichtsfenster dafür konfiguriert sein, die Wahrscheinlichkeit einer Übelkeit durch den Prüfnutzer zu verringern und damit die Probleme bei herkömmlichen Techniken des Teilens einer VR-Ansicht zu überwinden.
  • Bei einem Beispiel definiert das Ansichtsfenster einen Abschnitt des VR-Videos, der von der Prüf-VR-Vorrichtung und ebenfalls von der Quellen-VR-Vorrichtung ausgegeben wird. Das Ansichtsfenster kann beispielsweise unter Verwendung einer Umrandung innerhalb der Ausgabe des VR-Videos der Prüf-VR-Vorrichtung definiert sein. Die Umrandung definiert, welcher Abschnitt des VR-Videos ebenfalls von der Quellen-VR-Vorrichtung ausgegeben wird. Ein Prüfnutzer der Prüf-VR-Vorrichtung kann daher ohne Weiteres bestimmen, welcher Abschnitt des VR-Videos von der Quellen-VR-Vorrichtung ausgegeben wird. Die Umrandung kann zu dem Zweck, Entsprechungen zu den jeweiligen mehreren Quellen-VR-Vorrichtungen anzugeben, beispielsweise mit zugeordneten Farben markiert sein.
  • Zusätzlich schützt das Ansichtsfenster vor Übelkeit, die andernfalls bei einem Prüfnutzer, der herkömmliche Techniken des Teilens nutzt, auftreten würden. Eine Bewegung des Ansichtsfensters in Bezug auf die Ausgabe des VR-Videos wird beispielsweise durch die von der Quellen-VR-Vorrichtung empfangenen Orientierungsdaten gesteuert bzw. geregelt. Gleichwohl wird die Bewegung des VR-Videos, über dem das Ansichtsfenster angezeigt wird, auf Grundlage der Orientierungsdaten, die von der Prüf-VR-Vorrichtung selbst detektiert werden, gesteuert bzw. geregelt. Die Bewegung des VR-Videos entsprechend der Ausgabe durch die Prüf-VR-Vorrichtung folgt der Bewegung des Kopfes des Prüfnutzers. Auf diese Weise folgt die Bewegung des VR-Videos der erwarteten Bewegung des Kopfes des Prüfnutzers und erzeugt beim Prüfnutzer daher keine Übelkeit.
  • Bei einer Implementierung wird ein Nutzerschnittstellenelement genutzt, um den Prüfnutzer zu führen, wenn derjenige Abschnitt des VR-Videos, der von der Quellen-VR-Vorrichtung ausgegeben wird, aktuell nicht auch von der Prüf-VR-Vorrichtung ausgegeben wird. Die Prüf-VR-Vorrichtung und die Quellen-VR-Vorrichtung können beispielsweise verschiedene, nicht überlappende Abschnitte eines Frames des VR-Videos ausgeben. Im Ergebnis wird das Ansichtsfenster als Umrandung aktuell von der Prüf-VR-Vorrichtung nicht angezeigt. Daher wird ein Nutzerschnittstellenelement von der Prüf-VR-Vorrichtung erzeugt, um eine Beziehung zwischen diesen Abschnitten anzugeben und daher dem Prüfnutzer anzuzeigen, „wohin er sehen soll“ (beispielsweise in welche Richtung er eine Kopfdrehung vornehmen soll), um das Ansichtsfenster zu sehen.
  • Das Nutzerschnittstellenelement kann beispielsweise als visuelles Nutzerschnittstellenelement, so beispielsweise als Pfeil, konfiguriert sein, um eine Richtung, „in die zu schauen ist“ anzuzeigen, damit das Ansichtsfenster bei der Ausgabe des VR-Videos ausfindig gemacht werden kann. In einem anderen Fall wird das Nutzerschnittstellenelement wenigstens teilweise unter Verwendung von Schall, beispielsweise unter Nutzung räumlicher Audiotechniken, ausgegeben, um ebenfalls eine Richtung anzuzeigen, in die sich der Kopf des Prüfnutzers drehen soll, um das Ansichtsfenster zu sehen. Räumliche Audiotechniken beinhalten die Wiedergabe eines Monoaudiokanals unter Verwendung einer HRTF (Head-Related Transfer Function HRTF, kopfbezogene Transferfunktion), die beschreibt, wie Schall durch die Form des Ohres beim Eintritt in den Gehörgang modifiziert wird. Dies stellt die Möglichkeit bereit, Audiodaten so wiederzugeben, als kämen sie von vorderhalb, hinterhalb, oberhalb und unterhalb des Prüfnutzers, und dies auch dann, wenn der Schall, der sich aus dieser Wiedergabe ergibt, im linken und rechten Ohr die gleiche Lautstärke aufweist. Im Ergebnis kann das Nutzerschnittstellenelement entsprechend der Ausgabe über räumliche Audiotechniken durch die Prüf-VR-Vorrichtung genutzt werden, um akustische Hinweise zu geben, die den Prüfnutzer dorthin führen, wo das Ansichtsfenster bei der Ausgabe des VR-Videos in Fällen, in denen das Ansichtsfenster von der Prüf-VR-Vorrichtung aktuell nicht angezeigt wird, ausfindig zu machen ist.
  • Bei einem weiteren Beispiel wird das Ansichtsfenster durch die Prüf-VR-Vorrichtung als Vorschau (thumbnail) konfiguriert, die den Abschnitt des VR-Videos, der von der Quellen-VR-Vorrichtung ausgegeben wird, beinhaltet. Wie beim vorbeschriebenen Beispiel wird die Bewegung zwischen verschiedenen Abschnitten des VR-Videos innerhalb des Ansichtsfensters durch die Orientierungsdaten, die von der Quellen-VR-Vorrichtung empfangen werden, gesteuert bzw. geregelt. Demgegenüber wird eine Bewegung zwischen verschiedenen Abschnitten „außerhalb“ des Ansichtsfensters innerhalb einer Nutzerschnittstelle der Prüfvorrichtung durch Orientierungsdaten, die von der Prüf-VR-Vorrichtung selbst detektiert werden, gesteuert bzw. geregelt. Auf diese Weise wird auch die Wahrscheinlichkeit einer Übelkeit verringert und sogar verhindert, da die Bewegung in Bezug auf das VR-Video außerhalb des Ansichtsfensters der erwarteten Bewegung des Kopfes des Prüfnutzers folgt. Bei einem weiteren Beispiel wird die Ausgabe des Ansichtsfensters als Vorschau in der Nutzerschnittstelle weiterhin unabhängig davon angezeigt, wo der Prüfnutzer innerhalb der Ausgabe des VR-Videos durch die Prüf-VR-Vorrichtung navigiert.
  • Das Ansichtsfenster kann auch Optionen beinhalten, die Zeit und/oder Anzeige des VR-Videos zwischen den Quellen- und Prüf-VR-Vorrichtungen automatisch synchronisieren. Die Option der Synchronisierung der Zeit ist beispielsweise durch die Prüf-VR-Vorrichtung auswählbar, um die Zeit bei der Ausgabe des VR-Videos an der Prüf-VR-Vorrichtung mit der Zeit in Bezug auf das VR-Video entsprechend der Ausgabe durch die Quellen-VR-Vorrichtung zu synchronisieren. Auf diese Weise ist die Navigation innerhalb der Ausgabe des VR-Videos weiterhin durch die Bewegung der Prüf-VR-Vorrichtung steuer- bzw. regelbar, um beispielsweise verschiedene Abschnitte durch eine Bewegung des Kopfes des Nutzers anzusehen, was vor Übelkeit schützt.
  • Die Option der Synchronisierung der Zeit und der Anzeige ist durch die Prüf-VR-Vorrichtung auswählbar, um sowohl die Zeit wie auch die Anzeige des VR-Videos entsprechend der Ausgabe durch die Prüf-VR-Vorrichtung zu synchronisieren. Der Abschnitt des VR-Videos, der von der Prüf-VR-Vorrichtung ausgegeben wird, wird sodann durch Orientierungsdaten, die von der Quellen-VR-Vorrichtung bezogen werden, gesteuert bzw. geregelt, weshalb beide Vorrichtungen dieselben Abschnitte des VR-Videos anzeigen. Dies kann jedoch, wie vorstehend bereits beschrieben worden ist, Übelkeit hervorrufen. Entsprechend wird bei diesem Beispiel ein Übelkeitshemmungsabschnitt erzeugt und in Verbindung mit dem VR-Video ausgegeben, und zwar beispielsweise als Abfolge von halbdurchsichtigen Kreisen entlang eines Umfangs einer Nutzerschnittstelle. Die Bewegung des Übelkeitshemmungsabschnittes wird auf Grundlage der Orientierungsdaten der Prüf-VR-Vorrichtung gesteuert bzw. geregelt und folgt daher der erwarteten Bewegung der Vorrichtung. Dies dient dazu, Übelkeit, die bei dem Prüfnutzer der Prüf-VR-Vorrichtung hervorgerufen werden kann, zu verringern und sogar ganz zu verhindern, und dies sogar dann, wenn die Ausgabe des VR-Videos entsprechend der Spezifizierung durch die Quellen-VR-Vorrichtung das gesamte Sichtfeld, das von der Ausgabevorrichtung der Prüf-VR-Vorrichtung unterstützt wird, einnimmt.
  • Der Übelkeitshemmungsabschnitt kann beispielsweise als Abfolge von halbdurchsichtigen Nutzerschnittstellenelementen (beispielsweise Kreisen) konfiguriert sein, die über einer Ausgabe des VR-Videos angeordnet sind. Die Nutzerschnittstellenelemente sind beispielsweise dafür konfiguriert, der Bewegung des Kopfes des Prüfnutzers zu folgen, um sich innerhalb der Nutzerschnittstelle zu bewegen (beispielsweise um dort zu scrollen), damit diese stationär in Bezug auf die physische Umgebung des Prüfnutzers wirken. Mit anderen Worten, die Nutzerschnittstellenelemente bewegen sich im Vergleich zur Bewegung des Kopfes des Prüfnutzers in entgegengesetzter Richtung und in entgegengesetztem Ausmaß. Daher können die Nutzerschnittstellenelemente in Bezug auf die physische Umgebung des Prüfnutzers infolge der Bewegung in der entgegengesetzten Richtung und in dem entgegengesetzten Ausmaß zur Bewegung des Kopfes des Nutzers als „stationär ruhend“ erscheinen.
  • Die Bewegung des Kopfes des Prüfnutzers kann beispielsweise dazu genutzt werden, in eine VR-Szene eines VR-Videos „hinaufzusehen“. In Reaktion hierauf veranlasst die Prüf-VR-Vorrichtung, dass die Nutzerschnittstellenelemente in der Nutzerschnittstelle um einen entsprechenden Abstand nach unten scrollen, sodass die Nutzerschnittstellenelemente jeweils stationär ruhen, um eine Bewegung in Bezug auf die physische Umgebung des Nutzers nachzuahmen. Die Prüf-VR-Vorrichtung konfiguriert die Nutzerschnittstelle beispielsweise derart, dass aufeinanderfolgende Nutzerschnittstellenelemente am oberen Ende der Nutzerschnittstelle auftreten und am unteren Ende der Nutzerschnittstelle in einem Ausmaß der Bewegung, das durch die Bewegung des Kopfes des Nutzers definiert ist, entfernt werden. Gleichzeitig wird die Bewegung innerhalb des VR-Videos durch die Quellen-VR-Vorrichtung gesteuert bzw. geregelt. Hierdurch verhindern die Übelkeitshemmungsabschnitte die Wahrscheinlichkeit dafür, dass bei dem Prüfnutzer der Prüf-VR-Vorrichtung Übelkeit hervorgerufen wird, und dies sogar dann, wenn die Bewegung in Bezug auf das VR-Video selbst von der Quellen-VR-Vorrichtung gesteuert bzw. geregelt wird.
  • Es werden zudem Techniken und Systeme beschrieben, bei denen Kommentare als Teil von Kooperationsdaten beinhaltet sind, um die kooperationsbasierte Prüfung zwischen den Quellen- und Prüf-VR-Vorrichtungen zu unterstützen. Auf diese Weise kann die Kommunikation der Kooperationsdaten und nicht das Streamen des VR-Videos selbst entsprechend der Durchführung bei den vorbeschriebenen herkömmlichen Techniken des Teilens eine Echtzeitinteraktion zwischen den Vorrichtungen durch effiziente Nutzung von Netzwerk- und Rechenressourcen unterstützen. Die Kooperationsdaten 130 können beispielsweise dafür genutzt werden, Kommentare durch die Prüf-VR-Vorrichtung bei der Ausgabe in Verbindung mit einer lokal gespeicherten Version des VR-Videos zu erzeugen. Die Menge der Kooperationsdaten 130, die zwischen den Vorrichtungen kommuniziert werden, ist bedeutend geringer als beim Streamen des VR-Videos, in dem die Kommentare als Teil des Videos beinhaltet sind.
  • Eine Quellen-VR-Vorrichtung kann beispielsweise ein VR-Video zur Ansicht durch den Quellennutzer, wie vorstehend beschrieben worden ist, ausgeben. Eine Nutzereingabe wird durch die Quellen-VR-Vorrichtung zur Eingabe eines Kommentars empfangen. Der Quellennutzer kann beispielsweise eine Option in der Nutzerschnittstelle zur Bereitstellung eines Kommentars auswählen. In Reaktion hierauf unterbricht die Quellen-VR-Vorrichtung in diesem Fall die Ausgabe des VR-Videos. Von der Quellen-VR-Vorrichtung wird zudem eine Nutzereingabe empfangen, die einen Kommentar spezifiziert, so beispielsweise eine freihändige Linie oder eine andere Abfolge von Linien, die einen Abschnitt des VR-Videos definieren, eine gesprochene Äußerung, eine Geste und dergleichen mehr. Die Nutzereingabe wird bei diesem Beispiel durch die Quellen-VR-Vorrichtung mit einem Zeitstempel, der demjenigen Frame entspricht, bei dem das VR-Video unterbrochen worden ist, verknüpft. Der Kommentar wird zudem mit Orientierungsdaten verknüpft, die eine Orientierung, die von der Quellen-VR-Vorrichtung genutzt wird, beschreiben. Die Orientierung wird in diesem Fall dazu genutzt, den Kommentar mit einem Koordinatensystem des VR-Videos beispielsweise so, wie durch die freihändige Linie gezeichnet, zu verknüpfen. Es sind auch andere Beispiele mit einbezogen, so beispielsweise das automatische und ohne Nutzereingriff erfolgende Sammeln von Passiveingaben als Kommentare, so beispielsweise die Detektion von Schall, der die Stimmung des Nutzers angibt, also beispielsweise ein Seufzen oder Lachen.
  • Kooperationsdaten, die den Kommentar, den Zeitstempel und die Orientierungsdaten beinhalten, werden sodann durch die Quellen-VR-Vorrichtung an die Prüf-VR-Vorrichtung übertragen. Wie beschrieben, können die Kooperationsdaten daher die Netzwerk- und Recheneffizienz anstelle der Kommunikation des VR-Videos selbst fördern. Die Kooperationsdaten werden sodann von der Prüf-VR-Vorrichtung verwendet, um die Ausgabe des Kommentars zu steuern bzw. zu regeln. Die Prüf-VR-Vorrichtung kann beispielsweise eine Angabe in Bezug auf eine Zeitachse anzeigen, die angibt, dass ein Kommentar mit einem jeweiligen Zeitstempel verknüpft ist. Die Auswahl der Angabe kann sodann eine Ausgabe des Kommentars zur jeweiligen Zeit (beispielsweise beim jeweiligen Frame) bei der Ausgabe des VR-Videos auf Grundlage des Zeitstempels und des jeweiligen Abschnittes in jenem Frame des VR-Videos auf Grundlage der Orientierungsdaten veranlassen. Auf diese Weise kann der Prüfnutzer den Kommentar effizient und akkurat ansehen und daher mit dem Quellennutzer zwischen den Prüf- und Quellen-VR-Vorrichtungen kooperieren.
  • Der Kommentar kann zudem automatisch und ohne Nutzereingriff durch die Prüf-VR-Vorrichtung ausgegeben werden. Die Prüf-VR-Vorrichtung kann beispielsweise das VR-Video als Normalfall ausgeben, wobei hier die Navigation innerhalb des VR-Videos von der Prüf-VR-Vorrichtung gesteuert bzw. geregelt wird. Die Kooperationsdaten können sodann genutzt werden, um ein Ansichtsfenster, wie vorstehend beschrieben worden ist, auf Grundlage der Orientierungsdaten wie auch des Zeitstempels auszugeben. Das Ansichtsfenster kann beispielsweise über mehrere Frames hinweg auf Grundlage des Zeitstempels ausgegeben werden, sodass der Prüfnutzer das Ansichtsfenster ohne Unterbrechung der Ausgabe des VR-Videos ansehen kann. Der Kommentar wird innerhalb des Ansichtsfensters beispielsweise über die mehreren Frames hinweg angezeigt. Dies kann zur Nachahmung dessen erfolgen, wie der Quellennutzer den Kommentar eingibt (beispielsweise um das Zeichnen der freihändigen Linie über eine Abfolge von Frames hinweg nachzuahmen), oder es wird eine vollständige Version des Kommentars entsprechend einer Kopie über aufeinanderfolgende Frames hinweg bei der Ausgabe des VR-Videos gezeigt. Auf diese Weise wird der Kommentar in Bezug auf das VR-Video intuitiv ausgegeben und kann durch die vorstehend beschriebenen Nutzerschnittstellenelemente ausfindig gemacht werden, was die Wahrscheinlichkeit einer Übelkeit, die bei herkömmlichen Techniken und Systemen auftritt, verringert.
  • Beschrieben werden zudem Techniken und Systeme zum Unterstützen einer effizienten Verteilung eines VR-Videos. Ein Videohersteller kann beispielsweise mit einer Contentbearbeitungsanwendung interagieren, um ein VR-Video, so beispielsweise ein VR-Video, zu erstellen, und möchte die Ideen einiger Prüfer erhalten. Herkömmliche Techniken implizieren zu diesem Zwecke das Hinterlegen bzw. Posten des VR-Videos auf einer Webseite (beispielsweise YouTube® oder Facebook®), das lokale „Seitenladen“ des Videos auf die VR-Vorrichtung und das anschließende Zugreifen auf ein Medienabspielgerät, um das Video anzusehen, und dergleichen mehr. Jede dieser herkömmlichen Techniken ist jedoch dahingehend modal, dass der Prüfer gezwungen ist, „außerhalb“ einer Nutzerschnittstelle der Contentbearbeitungsanwendung zu navigieren, um den Content zu teilen und Kommentare, die sich aus der Prüfung des Videos ergeben, zu empfangen.
  • Entsprechend werden in den nachfolgenden Abschnitten nichtmodale Techniken beschrieben, die das Teilen und Prüfen eines VR-Videos im Umfeld der Contentbearbeitungsanwendung unterstützen. Wie beim vorherigen Beispiel erstellt der Videohersteller ein VR-Video und möchte von einigen Prüfern Kommentare empfangen. Zu diesem Zweck wählt der Videohersteller eine Option als Teil der Contentbearbeitungsanwendung, um das VR-Video beispielsweise lokal über ein Ortsbereichsnetzwerk (LAN) zum Teilen verfügbar zu machen. In Reaktion hierauf wird die Contentbearbeitungsanwendung ausgeführt, um ein Nutzerschnittstellenelement (beispielsweise Signaldaten (beacon data)), das die Verfügbarkeit des VR-Videos angibt, drahtlos zu kommunizieren. Die Prüfer initiieren durch eine Interaktion an jeweiligen lokalen Anwendungen an jeweiligen VR-Vorrichtungen eine direkte Drahtlosverbindung mit einer Rechenvorrichtung des Videoherstellers, beispielsweise über Wi-Fi. Nach der Initiierung kann die Videoprüfung den Zugriff zulassen (beispielsweise verifizieren, dass der Prüfer den Content empfangen soll), und zwar durch Auswahl einer Option in einer Nutzerschnittstelle, die veranlasst, dass das VR-Video an die jeweiligen VR-Vorrichtungen gestreamt wird. Bei einer Implementierung erfolgt dies über ein Broadcasting bzw. Rundsenden, das für den gleichzeitigen Empfang durch mehrere VR-Vorrichtungen konfiguriert ist.
  • Die Prüfer sehen sodann das VR-Video über jeweilige VR-Vorrichtungen und kommunizieren auf Grundlage der Rechenvorrichtung des Videoherstellers Kooperationsdaten, die durch die Nutzerinteraktion mit dem Content erzeugt werden. Die Kooperationsdaten können beispielsweise, wie vorstehend beschrieben worden ist, Kommentare wie „Daumen hoch“ oder „Daumen runter“, die mit jeweiligen Zeiten oder Koordinaten innerhalb des VR-Videos verknüpft sind, und dergleichen mehr beinhalten. Die Kooperationsdaten werden sodann in der Nutzerschnittstelle durch die Rechenvorrichtung an den Videohersteller ausgegeben. Auf diese Weise kann der Videohersteller im Umfeld der Contentbearbeitungsanwendung bleiben und die Anmerkungen auf nichtmodale Weise teilen und empfangen. Zahlreiche weitere Beispiele sind ebenfalls mit einbezogen, die detaillierter in den nachfolgenden Abschnitten beschrieben werden.
  • Exemplarische Umgebung
  • 1 ist eine Darstellung einer Digitalmedienumgebung 100 bei einer exemplarischen Implementierung, die für den Einsatz der hier beschriebenen Techniken betreibbar ist. Die dargestellte Umgebung 100 beinhaltet Prüf- und Quellen-VR-Vorrichtungen 102, 104, die mit jeweiligen Prüf- und Quellennutzern 106, 108 verknüpft sind. Die Prüf- und Quellen-VR-Vorrichtungen 102, 104 sind kommunikationstechnisch miteinander über ein Netzwerk 132 gekoppelt. Die Prüf- und Quellen-VR-Vorrichtungen 102, 104 können auf vielerlei Arten konfiguriert sein, so beispielsweise als Brillen oder Goggles, die die Prüf- und Quellennutzer 106, 108, wie dargestellt ist, auf ihren Köpfen tragen sollen, sowie als Mobiltelefone oder Tablets, als tragbare Vorrichtungen, eigenständige Vorrichtungen (beispielsweise Zeichen) und dergleichen mehr.
  • Die Prüf- und Quellen-VR-Vorrichtungen 102, 104 sind jeweils derart dargestellt, dass sie ein jeweiliges VR-Contentmodul 110, 112 beinhalten. Die VR-Contentmodule 110, 112 sind dafür konfiguriert, eine Erfassung und/oder Wiedergabe eines VR-Videos 114(1), 114(2) zur Ausgabe an jeweilige Prüf- und Quellennutzer 106, 108, die durch jeweilige Speichervorrichtungen 116, 118 gespeichert dargestellt sind, zu unterstützen. Das VR-Video 114(1), 114(2) ist bei diesem Beispiel mit ähnlichen Bezugszeichen bezeichnet, um auszudrücken, dass das VR-Video den einschlägigen Erfindungsgegenstand beinhaltet, beispielsweise „dasselbe“ VR-Video ist, dieselbe VR-Szene erfasst und dergleichen mehr. Entsprechend kann das VR-Video 114 eine oder auch beide Instanzen des VR-Videos 114(1), 114(2) bezeichnen.
  • Die Ausgabe kann durch eine Ausgabevorrichtung der VR-Vorrichtungen 102, 104 erfolgen, die auf vielerlei Arten konfigurierbar ist, so beispielsweise zur Unterstützung einer optischen Ausgabe (beispielsweise über eine Anzeigevorrichtung), einer Audioausgabe (beispielsweise über Lautsprecher), einer taktilen Ausgabe (beispielsweise über eine haptische Vorrichtung) und dergleichen mehr. Auf diese Weise kann die Ausgabe des VR-Videos 114(1), 114(2) dafür konfiguriert sein, ein immersives Erleben zu unterstützen, bei dem die Nutzer „meinen, mitten drin zu sein“.
  • Wie vorstehend beschrieben worden ist, können herkömmliche Techniken, die zur Unterstützung des immersiven Erlebens genutzt werden, die Möglichkeiten der Prüf- und Quellennutzer 106, 108 dafür, miteinander zu kommunizieren, einschränken. Bei dem dargestellten Beispiel ist das VR-Video 114 dafür konfiguriert, einen 360°-Ansicht 120 einer VR-Digitalszene zu unterstützen. Entsprechend kann ein Abschnitt 122, der von der Prüf-VR-Vorrichtung 102 ausgegeben wird, von einem Abschnitt 124, der von der Quellen-VR-Vorrichtung 104 ausgegeben wird, verschieden sein. Daher kann, auch wenn dasselbe Objekt des VR-Videos 114 sowohl durch die Prüf- wie auch die Quellen-VR-Vorrichtungen 102, 104 ausgegeben wird, die Interaktion mit dem VR-Video 114, das von diesen Vorrichtungen ausgegeben wird, auf vielerlei Arten variieren. Im Ergebnis können herkömmliche Techniken, die zur Kommunikation zwischen diesen Vorrichtungen genutzt werden (beispielsweise zur Beteiligung an einer kooperationsbasierten Prüfung), infolge dieser Komplikationen scheitern.
  • Entsprechend beinhalten die VR-Contentmodule 108, 110 jeweilige Kooperationsmodule 126, 128, die dafür konfiguriert sind, die Kooperationsdaten 130 zwischen den Vorrichtungen zu kommunizieren. Im dargestellten Fall werden die Kooperationsdaten 130 von der Quellen-VR-Vorrichtung 104 an die Prüf-VR-Vorrichtung 102 kommuniziert, wobei die Benennung so gewählt ist, dass angegeben wird, wo die Kooperationsdaten 130 herstammen. Es sollte jedoch einsichtig sein, dass sich die Rollen auch ändern können, um eine Kommunikation in Umkehrrichtung zu unterstützen.
  • Die Kooperationsmodule 126, 128 können dafür konfiguriert sein, zahlreiche verschiedene Arten von Kooperation auf Grundlage der Kooperationsdaten 130 zu unterstützen, so beispielsweise Ansichtsfenster, Kommentare, synchronisiertes Ansehen, Übelkeitshemmung, nichtmodale Prüfung und dergleichen mehr. In der nachfolgenden Diskussion wird zunächst der Betrieb der VR-Vorrichtungen zur Unterstützung einer Interaktion mit VR-Content beschrieben. Sodann wird in entsprechenden Abschnitten die Nutzung von Kooperationsdaten 130 beschrieben, und zwar durch die Verwendung eines Ansichtsfensters, von Übelkeitshemmungsabschnitten, Kommentaren und einer nichtmodalen Interaktion.
  • Im Allgemeinen können die Funktionalität, die Merkmale und die Konzepte, die hier im Zusammenhang mit den vorstehenden und nachstehenden Beispielen erläutert werden, im Umfeld der in diesem Abschnitt beschriebenen exemplarischen Prozeduren eingesetzt werden. Des Weiteren können die Funktionalität, die Merkmale und die Konzepte, die im Zusammenhang mit den verschiedenen Figuren und Beispielen in der vorliegenden Druckschrift erläutert werden, untereinander ausgetauscht werden und sind nicht auf die Implementierung im Umfeld einer bestimmten Figur oder Prozedur beschränkt. Darüber hinaus können Blöcke, die mit verschiedenen dargestellten Prozeduren und entsprechenden Figuren verknüpft sind, auf verschiedene Weisen gemeinsam eingesetzt und/oder miteinander kombiniert werden. Zudem können die individuelle Funktionalität, die Merkmale und die Konzepte, die hier im Zusammenhang mit verschiedenen exemplarischen Umgebungen, Vorrichtungen, Komponenten, Figuren und Prozeduren beschrieben werden, in beliebigen geeigneten Kombinationen verwendet werden und sind nicht auf die jeweiligen Kombinationen beschränkt, die von den in dieser Beschreibung aufgeführten Beispielen verkörpert werden.
  • Erzeugung eines Ansichtsfensters auf Grundlage der Orientierung
  • Im vorliegenden Abschnitt wird ein Ansichtsfenster von einer Prüf-VR-Vorrichtung 102 auf Grundlage der Orientierung, die von der Quellen-VR-Vorrichtung 104 zum Ansehen eines VR-Videos genutzt wird, erzeugt. Das Ansichtsfenster ist derart konfiguriert, dass ein Prüfnutzer 106 der Prüf-VR-Vorrichtung 102 sehen kann, welcher Abschnitt von dem Quellennutzer 108 der Quellen-VR-Vorrichtung 104 angesehen wird, ohne dass Übelkeit hervorgerufen würde. Des Weiteren kann die Kommunikation der Kooperationsdaten 130 und nicht des VR-Videos selbst eine erhöhte Effizienz der Netzwerk- und Rechenressourcen bereitstellen, um die Ausgabe in Echtzeit zu unterstützen und eine Verzögerung (lag) im Vergleich mit herkömmlichen Streaming-Techniken zum Teilen zu verringern. Die Diskussion beginnt damit, wie Abschnitte eines Frames eines VR-Videos zur Ausgabe auf Grundlage einer Orientierung bestimmt werden, die unter Verwendung von Orientierungsverfolgungssensoren bestimmt wird. Das Teilen der Orientierungsdaten, die diese Orientierung beschreiben, wird sodann erläutert, was wiederum dafür verwendet wird, das Ansichtsfenster auf eine Weise zu erzeugen, die verhindert, dass Übelkeit hervorgerufen wird, wie dies bei herkömmlichen Techniken zum Teilen von VR-Videos der Fall ist.
  • 2 zeigt eine exemplarische Implementierung 200 zur Darstellung des Betriebes der Quellen-VR-Vorrichtung 104 derart, dass ein VR-Video 114(2) wiedergegeben und Kooperationsdaten 130 zur Kommunikation an die Prüf-VR-Vorrichtung 102 erzeugt werden. Zunächst beinhaltet das VR-Contentmodul 112 Orientierungsverfolgungssensoren 202, die dafür konfiguriert sind, Verfolgungsdaten 204 zu erzeugen, die von einem Orientierungsbestimmungsmodul 206 nutzbar sind, um Orientierungsdaten 208, die eine Orientierung beschreiben, zu erzeugen. Die Orientierung wird von einem VR-Contentwiedergabemodul 210 mit einem Koordinatensystem des VR-Videos 114(2) verglichen, um zu bestimmen, welcher Abschnitt des VR-Videos 114(2) in eine Nutzerschnittstelle 202 durch eine Ausgabevorrichtung 214 der Quellen-VR-Vorrichtung 104 wiedergegeben werden soll.
  • Wie in 3 gezeigt ist, sind die Orientierungsverfolgungssensoren 202 beispielsweise dafür konfiguriert, Verfolgungsdaten 204 auszugeben, die von dem Orientierungsbestimmungsmodul 206 dafür nutzbar sind, die wahrscheinliche Orientierung des Kopfes des Quellennutzers 108 beispielsweise im dreidimensionalen Raum zu verfolgen. Bei diesem dargestellten Beispiel erfolgt dies zur Unterstützung von sechs Freiheitsgraden (6DoF), so beispielsweise der Drehung um eine seitliche Achse 210 (das heißt Nicken), eine senkrechte Achse 212 (das heißt Gieren) und eine Längsachse 214 (das heißt Rollen). Im Ergebnis werden die Orientierungsdaten 208 verwendet, um Kopfbewegungen als vorwärts und rückwärts, von Seite zu Seite und von Schulter zu Schulter zu beschreiben.
  • Die Verfolgungsdaten 204 können von zahlreichen Arten von Orientierungsverfolgungssensoren 202 einzeln und in Kombination ausgegeben werden. Die Orientierungsverfolgungssensoren 202 können beispielsweise als Gyroskop, Beschleunigungsmesser/Akzelerometer, Magnetometer, Trägheitssensor und dergleichen mehr konfiguriert sein, um eine Bewegung zu bestimmen, die mit der Quellen-VR-Vorrichtung 104 verknüpft ist. Beinhalten kann dies eine Bewegung der Quellen-VR-Vorrichtung 104 selbst als Ganzes (beispielsweise eine Kopfbewegung) und/oder eine Steuerung bzw. Regelung, die kommunikationstechnisch mit der Quellen-VR-Vorrichtung 104 beispielsweise unter Verwendung einer oder mehrerer manueller Steuerungen bzw. Regelungen kommuniziert. Bei einem weiteren Beispiel eines Headsets sind Licht emittierende Dioden (LEDs) am Umfang des Headsets angeordnet, um eine 360°-Kopfverfolgung unter Verwendung einer externen Kamera, die von diesen Dioden emittiertes Licht detektiert, zu unterstützen.
  • Weitere Beispiele beinhalten die Verwendung einer Kamera zum Detektieren von Marken in einer physischen Umgebung, in der die Quellen-VR-Vorrichtung 104 angeordnet ist (beispielsweise Ecken eines Tisches), und zum Detektieren einer Bewegung in Bezug auf diese Marken durch Erfassen von aufeinanderfolgenden digitalen Bildern. Es sind zahlreiche weitere Beispiele mit einbezogen, darunter ein Augenverfolgen, bei dem eine Kamera zu einem Auge des Quellennutzers 108 zeigt (beispielsweise ein Infrarotsensor) und bestimmt, „wohin der Nutzer in Bezug auf Abschnitte der Ausgabevorrichtung 214 sieht“.
  • Unabhängig vom Format der Verfolgungsdaten 204 ist das Orientierungsbestimmungsmodul 206 dafür konfiguriert, die Verfolgungsdaten 204 zu Orientierungsdaten 208 zu abstrahieren, die die Orientierung beschreiben, die von dem VR-Contentwiedergabemodul 210 verwendet wird, um jeweilige Abschnitte des VR-Videos 114(2) wiederzugeben. Die Orientierungsdaten 208 können beispielsweise Änderungen an Orientierungen angeben, die dafür nutzbar sind, zwischen jeweiligen Abschnitten eines Frames des VR-Videos 114(2) zu navigieren. Auf diese Weise sind die Orientierungsdaten 208 zur Steuerung bzw. Regelung dessen nutzbar, welche Abschnitte des VR-Videos 114(2) von der Ausgabevorrichtung 214 wiedergegeben werden und welche nicht, was nachstehend noch beschrieben wird.
  • 4 zeigt eine exemplarische Implementierung 400 eines Frames 402 des VR-Videos 114 und ein entsprechendes Koordinatensystem 404, das zur Bestimmung eines Abschnittes des VR-Videos 114 nutzbar ist, der in Bezug auf eine Orientierung, die von den Orientierungsdaten 208 von 3 definiert wird, ausgegeben werden soll. Der Frame 402 ist bei diesem Beispiel als zweidimensionale äquirektanguläre Projektion einer Kugel 406 konfiguriert. Das Koordinatensystem 404 verwendet Standardbreitenkoordinaten (φ) und Standardlängenkoordinaten (λ), die ähnlich zu Koordinaten sind, die bei Globen und Karten der Erde verwendet werden. Ein beliebiges anderes Koordinatensystem kann jedoch ebenfalls verwendet werden, ohne vom Umfang der hier beschriebenen Techniken und Systeme abzugehen.
  • Das dargestellte Koordinatensystem 404 enthält zudem eine optische Führung, die anzeigt, welche Teile des Frames 402 des VR-Videos 114 in Bezug auf eine Orientierung, die durch die Orientierungsdaten 208 definiert wird, angeordnet sind. Beim dargestellten Beispiel ist das Gras in dem Frame 402 vor dem Betrachter, der Betonweg / das Dock erstreckt sich nach links und rechts bezüglich des Betrachters, und der Ozean ist hinter dem Betrachter. Panoramische Beispiele sind ebenfalls mit einbezogen, um beispielsweise eine 360°-Bewegung „nach links“ und „nach rechts“, wie in 1 gezeigt ist, zu unterstützen.
  • Die Orientierungsdaten 208 werden von dem VR-Contentwiedergabemodul 210 genutzt, um einen Abschnitt des Frames 402 zur Wiedergabe und Ausgabe durch die Ausgabevorrichtung 214 zu erzeugen. Die Orientierungsdaten 208 können beispielsweise eine Anfangsorientierung des Kopfes des Nutzers als „nach vorne schauend“, wie dargestellt ist, spezifizieren. Nachfolgende Änderungen an jener Orientierung entsprechend der Spezifizierung durch nachfolgende Sätze von Orientierungsdaten 208 werden genutzt, um zu verschiedenen Abschnitten des VR-Videos 114 auf Grundlage eines Vergleiches der Orientierung mit jeweiligen Koordinaten 402 zu navigieren.
  • Ausgehend von dieser Orientierung bestimmt das VR-Contentwiedergabemodul 210 ein Sichtfeld, das von der Ausgabevorrichtung 214 in Bezug auf die Orientierung unterstützt wird, und wählt einen Abschnitt 408 des Frames 402 auf Grundlage der Koordinaten und des Sichtfeldes aus. Dies erfolgt, um eine stereoskopische Ansicht mittels beider Augen des Nutzers zu unterstützen, um wiederum den Anschein von Tiefe zu unterstützen. Daher werden die Orientierungsdaten 208 zur Steuerung bzw. Regelung dessen genutzt, welche Abschnitte des Frames 402 des VR-Videos 114(2) von der Quellen-VR-Vorrichtung 104 ausgegeben werden.
  • Wie in 2 dargestellt ist, werden die Orientierungsdaten 208 auch für ein Kooperationsmodul 128 zur Einbeziehung als Teil der Kooperationsdaten 130 bereitgestellt. Die Kooperationsdaten 130, die die Orientierungsdaten 208 beinhalten, werden sodann an die Prüf-VR-Vorrichtung 102 kommuniziert, um eine Kooperation zwischen den Vorrichtungen zu unterstützen.
  • 5 zeigt eine exemplarische Implementierung 500 zur Darstellung des Betriebs der Prüf-VR-Vorrichtung 104 dahingehend, dass ein VR-Video 114(1) wiedergegeben wird und ein Ansichtsfenster aus den Kooperationsdaten 130, die von der Quellen-VR-Vorrichtung 104 empfangen werden, erzeugt wird. Wie beschrieben, beinhaltet das VR-Contentmodul 110 Orientierungsverfolgungssensoren 502, die dafür konfiguriert sind, Verfolgungsdaten 504 zu erzeugen, die von einem Orientierungsbestimmungsmodul 506 nutzbar sind, um die Orientierungsdaten 508, die eine Orientierung beschreiben, zu erzeugen.
  • Die Orientierung wird mit einem Koordinatensystem des VR-Videos 114(1) durch ein VR-Contentwiedergabemodul 510 verglichen, um zu bestimmen, welcher Abschnitt eines Frames des VR-Videos 114(1) in einer Nutzerschnittstelle 512 durch eine Ausgabevorrichtung 514 der Prüf-VR-Vorrichtung 102 wiedergegeben werden soll. Wie bei der Quellen-VR-Vorrichtung ist auch die Prüf-VR-Vorrichtung 102 dafür konfiguriert, die Ausgabe von Abschnitten des VR-Videos 114(1) auf Grundlage der Orientierung, die von den Orientierungsdaten 508 beschrieben wird, die lokal von der Prüf-VR-Vorrichtung 102 erzeugt werden, zu steuern bzw. zu regeln.
  • Die Prüf-VR-Vorrichtung 102 empfängt zudem von der Quellen-VR-Vorrichtung 104 Kooperationsdaten 130. Die Kooperationsdaten 130 beinhalten Orientierungsdaten 208, die die Orientierung beschreiben, die von der Quellen-VR-Vorrichtung 104 dafür genutzt wird, die Ausgabe des VR-Videos 114(2) zu steuern bzw. zu regeln. Genutzt wird die Orientierung der Quellen-VR-Vorrichtung 104 von dem Kooperationsmodul 126 zusammen mit der Orientierung entsprechend der Definition in den Orientierungsdaten 508 durch die Prüf-VR-Vorrichtung 102, um ein Ansichtsfenster 516 zur Ausgabe in Verbindung mit dem VR-Video 114(1) in der Nutzerschnittstelle 512 zu erzeugen. Das Ansichtsfenster 516 ist dafür konfiguriert, eine kooperationsbasierte Prüfung zu unterstützen, indem angegeben wird, welcher Abschnitt des VR-Videos 114(1) durch die Quellen-VR-Vorrichtung 104 ausgegeben wird, wobei dies bei verringerter Übelkeit im Vergleich zu herkömmlichen Techniken des Teilens erfolgen kann.
  • 6A, 6B, 6C, 6D zeigen exemplarische Implementierungen, bei denen ein Ansichtsfenster auf Grundlage einer Orientierung einer Quellen-VR-Vorrichtung 104 erzeugt wird, um einen Abschnitt des VR-Videos 114 anzugeben, der sowohl von den Prüf- wie auch Quellen-VR-Vorrichtungen 102, 104 ausgegeben wird. Beim vorliegenden Beispiel definiert das Ansichtsfenster 516 eine Umrandung, die einen Abschnitt des VR-Videos 114 enthält, der von der Quellen-VR-Vorrichtung 104 auf Grundlage der Orientierungsdaten 208 ausgegeben wird. Das Ansichtsfenster 516 kann beispielsweise als Ansicht verringerter Größe desjenigen Abschnittes des VR-Videos 114(2) angezeigt werden, der unter Verwendung der Quellen-VR-Vorrichtung 104 angesehen wird. Bei einer Implementierung sind die Abschnitte außerhalb des Ansichtsfensters 516 optisch in Bezug auf den Abschnitt des VR-Videos 114 innerhalb des Ansichtsfensters 516 beispielsweise durch eine verringerte Anzeigeintensität hervorgehoben. Daher definiert das Ansichtsfenster 516, welcher Abschnitt des VR-Videos 114 unter Verwendung der Quellen-VR-Vorrichtung 104 angesehen wird.
  • Im Ergebnis kann der Prüfnutzer 106 auf einfache Weise bestimmen, was der Quellennutzer 108 „ansieht“. Die Prüf- und Quellennutzer 106, 108 können sich sodann an einer kooperationsbasierten Prüfung beteiligen, und zwar beispielsweise durch gesprochene Äußerungen, die auch als Teil der Kooperationsdaten 130 in Echtzeit kommuniziert werden können, die laut ausgesprochen werden, wenn man im selben Raum ist, die Kommentare nutzen, wie nachstehend im entsprechenden Abschnitt noch detaillierter beschrieben wird, und dergleichen mehr, um Rückmeldungen in beiden Richtungen zwischen den Nutzern bereitzustellen. Des Weiteren unterstützt die Nutzung der Kooperationsdaten 130 im Gegensatz zum Streamen des VR-Videos 114(2) von der Quellen-VR-Vorrichtung 104 eine erhöhte Netzwerk- und Recheneffizienz mit verringerter Verzögerung (lag) bei der Ausgabe durch die Prüf-VR-Vorrichtung 102.
  • Das Ansichtsfenster 516 ist über einer Anzeige eines Abschnittes 602 des VR-Videos 114(1), der von der Prüf-VR-Vorrichtung 102 ausgegeben wird, angeordnet. Daher werden der Abschnitt 602 und die Navigation des VR-Videos 114(1) von der Prüf-VR-Vorrichtung 102 gesteuert bzw. geregelt, wohingegen der Ort des Ansichtsfensters 516 in Bezug auf jene Ausgabe auf Grundlage der Orientierungsdaten 206, die von der Quellen-VR-Vorrichtung 104 empfangen werden, gesteuert bzw. geregelt wird. Da die Navigation zwischen Abschnitten der Frames des VR-Videos 114(1), die von der Prüf-VR-Vorrichtung 102 ausgegeben werden, durch die Orientierungsdaten 508, die von der Prüf-VR-Vorrichtung 102 erzeugt werden, gesteuert bzw. geregelt wird, schützt diese Ausgabe vor Übelkeit, die bei dem Prüf-VR-Nutzer 106 aufgrund dessen hervorgerufen wird, dass die Bewegung zwischen den Abschnitten der Bewegung des Kopfes des Nutzers folgt.
  • Wie in 6A gezeigt ist, beinhaltet ein Abschnitt 602 des VR-Videos 114, der von der Prüf-VR-Vorrichtung 102 ausgegeben wird, zudem einen Abschnitt des VR-Videos 114, der von der Quellen-VR-Vorrichtung 104 entsprechend der Angabe durch das Ansichtsfenster 516 ausgegeben wird. Mit anderen Worten, das Ansichtsfenster 516 definiert in seiner Konfiguration als Umrandung, welche Abschnitte des VR-Videos 114 sowohl von den Prüf- wie auch Quellen-VR-Vorrichtungen 102, 104 genutzt werden.
  • Die Bewegung 604 des Kopfes des Prüfnutzers 106 nach rechts bewirkt eine entsprechende Bewegung nach rechts, sodass ein anderer Abschnitt 606 des VR-Videos, wie in 6B gezeigt ist, ausgegeben wird. Die Bewegung 608 kann, wie in 6C gezeigt ist, derart fortgesetzt werden, dass der Abschnitt 610 des VR-Videos 114, der von der Prüf-VR-Vorrichtung 102 ausgegeben wird, nicht mit dem Abschnitt des VR-Videos 114, der von der Quellen-VR-Vorrichtung 104 entsprechend der Angabe durch das Ansichtsfenster 516 ausgegeben wird, überlappt. Daher wird das Ansichtsfenster 516, wie in 6C gezeigt ist, nicht mehr ausgegeben.
  • Bei diesem Szenario wird ein Nutzerschnittstellenelement durch das Kooperationsmodul 126 der Prüf-VR-Vorrichtung 102 erzeugt, um den Prüfnutzer 106 zu führen, wenn der Abschnitt des VR-Videos, der von der Quellen-VR-Vorrichtung 104 ausgegeben wird, aktuell nicht auch von der Prüf-VR-Vorrichtung 102 ausgegeben wird. Beim dargestellten Beispiel ist das Nutzerschnittstellenelement 612 als optisches Nutzerschnittstellenelement, so beispielsweise als Pfeil, konfiguriert, um eine Richtung, „in die zu sehen ist“, anzugeben, damit das Ansichtsfenster 516 bei der Ausgabe des VR-Videos 114 ausfindig gemacht werden kann. Bei diesem Beispiel gibt das Nutzerschnittstellenelement 612 an, dass der Prüfnutzer 106 „nach links schaut“, um das Ansichtsfenster 516 und daher den Abschnitt des VR-Videos 114(2), der unter Nutzung der Quellen-VR-Vorrichtung 104 angesehen wird, ausfindig zu machen.
  • In einem anderen Fall wird das Nutzerschnittstellenelement wenigstens teilweise unter Verwendung von Schall ausgegeben, um ebenfalls die Richtung anzugeben, in der sich der Kopf des Prüfnutzers drehen soll, um das Ansichtsfenster zu sehen, und zwar beispielsweise unter Verwendung von räumlichen Audiotechniken. Räumliche Audiotechniken beinhalten das Wiedergeben eines Monoaudiokanals unter Verwendung einer HRTF (Head-Related Transfer Function HRTF, kopfbezogene Transferfunktion), die beschreibt, wie Schall durch die Form des Ohres beim Eintritt in den Gehörgang modifiziert wird. Hierdurch wird die Möglichkeit bereitgestellt, Audiodaten so wiederzugeben, als ob sie von vorderhalb, hinterhalb, oberhalb und unterhalb des Prüfnutzers kommen würden, und dies auch dann, wenn der Schall, der sich aus dieser Wiedergabe ergibt, im linken und rechten Ohr die gleiche Lautstärke aufweist. Im Ergebnis kann das Nutzerschnittstellenelement entsprechend der Ausgabe durch räumliche Audiotechniken durch die Prüf-VR-Vorrichtung auch dafür genutzt werden, akustische Hinweise zu geben, um die Navigation des Prüfnutzers 106 zum Ausfindigmachen des Ansichtsfensters 516 bei der Ausgabe des VR-Videos 114 zu führen. Zahlreiche weitere Beispiele sind ebenfalls mit einbezogen, darunter eine taktile Ausgabe über haptische Ausgabevorrichtungen.
  • 6D ist eine Darstellung eines Vollframes 612 des VR-Videos 114(1). Der Frame 612 beinhaltet das Ansichtsfenster 516 entsprechend der Angabe, welcher Abschnitt des Frames 612 durch die Quellen-VR-Vorrichtung 104 ausgegeben wird. Der Frame 612 beinhaltet zudem die sukzessiven Abschnitte 602, 606, 610, die von der Prüf-VR-Vorrichtung 102 in Reaktion auf aufeinanderfolgende nach rechts erfolgende Bewegungen 604, 608 des Kopfes des Prüfnutzers 106, wie in 6A bis 6C gezeigt ist, ausgegeben werden. Die Bewegung in Bezug auf den Frame 612 entsprechend der Ausgabe durch die Prüf-VR-Vorrichtung 102 wird daher von der Prüf-VR-Vorrichtung 102, die den Prüfnutzer 106 vor Übelkeit schützt, ebenfalls gesteuert bzw. geregelt. Beim vorliegenden Beispiel bleibt das Ansichtsfenster 516 in Bezug auf den Frame 612 des VR-Videos 114(1) stationär, wohingegen die verschiedenen Abschnitte 602, 606, 610 des Frames 612 des VR-Videos 114(1) innerhalb des Ansichtsfensters 516 ausgegeben werden. Das Umgekehrte kann ebenfalls auftreten, wobei sich hier das Ansichtsfenster 516 in Bezug auf den Frame entsprechend der Steuerung bzw. Regelung durch die Quellen-VR-Vorrichtung 104 bewegt, wobei hier jedoch der Abschnitt, der von der Prüf-VR-Vorrichtung 102 ausgegeben wird, stationär bleibt.
  • 7A, 7B, 7C, 7D zeigen exemplarische Implementierungen, bei denen ein Ansichtsfenster 516 auf Grundlage der Orientierung und Bewegung der Quellen-VR-Vorrichtung 104 erzeugt wird, um einen Abschnitt 702 des VR-Videos 114 anzugeben. Wie beim vorherigen Beispiel beinhaltet der Abschnitt 702 des VR-Videos 114, der von der Prüf-VR-Vorrichtung 102 ausgegeben wird, zudem einen Abschnitt des VR-Videos 114, der von der Quellen-VR-Vorrichtung 104 entsprechend der Angabe durch das Ansichtsfenster 516(1) ausgegeben wird. Die bei diesem Beispiel nach links erfolgende Bewegung 704 des Kopfes des Quellennutzers 108 bewirkt, wie in 7B gezeigt ist, eine entsprechende nach links erfolgende Bewegung des Ansichtsfensters 516(2) auf Grundlage der Orientierungsdaten 130, die durch die Prüf-VR-Vorrichtung 102 von der Quellen-VR-Vorrichtung 104 empfangen werden. Diese Bewegung 706 setzt sich, wie in 7C gezeigt ist, derart fort, dass das Ansichtsfenster in Verbindung mit der Ausgabe des Abschnittes 702 des VR-Videos 114, der von der Prüf-VR-Vorrichtung 102 ausgegeben wird, nicht mehr sichtbar ist. Es werden wiederum Nutzerschnittstellenelemente, so beispielsweise optische Nutzerschnittstellenelemente 708, akustische Nutzerschnittstellenelemente und dergleichen mehr, verwendet, um den Prüfnutzer 106 beim Ausfindigmachen des Ansichtsfensters 516 zu unterstützen.
  • Wie beim vorherigen Beispiel wird daher der Ort des Ansichtsfensters 516(1), 516(2), 516(3) in Bezug auf den Frame durch die Orientierungsdaten 208, die als Teil der Kooperationsdaten 130 von der Quellen-VR-Vorrichtung 104 empfangen werden, gesteuert bzw. geregelt. Gleichwohl wird der Abschnitt 702 des Frames des VR-Videos 114, der von der Prüf-VR-Vorrichtung 102 ausgegeben wird, von der Prüf-VR-Vorrichtung 102 gesteuert bzw. geregelt und schützt daher vor Übelkeit, die bei Verwendung herkömmlicher Techniken des Teilens auftritt. Die Bewegung des Prüfnutzers in Bezug auf das VR-Video wird anhand 6A bis 6D beschrieben, während die Bewegung des Ansichtsfensters 516 entsprechend der Steuerung bzw. Regelung durch die Quellen-VR-Vorrichtung 104 anhand 7A bis 7D gesteuert bzw. geregelt wird. Es sollte ohne Weiteres einsichtig sein, dass eine Bewegung, die sowohl von der Prüf- wie auch der Quellen-VR-Vorrichtung 102, 104 detektiert wird und der Navigation des VR-Videos 114 und des Ansichtsfensters 516 entspricht, ebenfalls mit einbezogen ist und vor Übelkeit schützt.
  • 8 zeigt eine weitere exemplarische Implementierung 800 des Ansichtsfensters 516, das eine asynchrone Ausgabe in Bezug auf Zeit und Orientierung bei der Ausgabe des VR-Videos 114 unterstützt. Bei den vorhergehenden Beispielen wird das VR-Video 114 entsprechend der Ausgabe sowohl durch die Prüf- wie auch Quellen-VR-Vorrichtungen 102, 104 in Bezug auf die Zeit derart synchronisiert, dass beide Vorrichtungen dieselben Frames des VR-Videos 114 ausgeben. Bei diesem Beispiel ist das Ansichtsfenster 516 derart konfiguriert, dass es eine asynchrone Ausgabe des Abschnittes des VR-Videos 114, der von der Quellen-VR-Vorrichtung 104 ausgegeben wird, unterstützt.
  • Die Prüf-VR-Vorrichtung 102 empfängt, wie vorstehend beschrieben worden ist, die Kooperationsdaten 130 von der Quellen-VR-Vorrichtung 104. Die Kooperationsdaten 130 beinhalten, wie vorstehend beschrieben worden ist, die Orientierungsdaten 208, die dafür nutzbar sind, die Orientierung in Bezug auf Frames eines VR-Videos zu bestimmen und hieraus wiederum zu bestimmen, welcher Abschnitt des Frames von der Quellen-VR-Vorrichtung 104 wiedergegeben wird.
  • Beim vorliegenden Beispiel beinhalten die Kooperationsdaten 130 zudem einen Zeitstempel 802, der angibt, welcher Frame des VR-Videos 114 auch von der Quellen-VR-Vorrichtung 104 wiedergegeben wird. Hieraus konfiguriert das Kooperationsmodul 126 das Ansichtsfenster 516, um den Abschnitt des VR-Videos 114, der von den Orientierungsdaten 208 angegeben wird und der einem Frame des VR-Videos 114 entsprechend der Angabe durch den Zeitstempel 802 entnommen ist, einzubeziehen. Das Ansichtsfenster 516 kann beispielsweise beim Empfangen einer Nutzereingabe von dem Prüfnutzer 106 ausgegeben werden, um „kurz zu sehen“, was der Quellennutzer 108 ansieht.
  • Beim dargestellten Beispiel ist das Ansichtsfenster 516 dafür konfiguriert, die Ausgabe des Abschnittes des VR-Videos 114(2), der durch die Kooperationsdaten 130 spezifiziert wird, als Vorschau (thumbnail) zu unterstützen. Daher ist das Ansichtsfenster 516 beim vorliegenden Beispiel dafür konfiguriert, unabhängig davon, „wohin der Prüfnutzer 106 in Bezug auf das VR-Video 114 schaut“, zu verharren. Der Prüfnutzer 106 kann beispielsweise durch eine Kopfbewegung zwischen verschiedenen Abschnitten des VR-Videos 114(1) navigieren, wobei jene Bewegung durch die Ausgabe des VR-Videos 114(1) in der Nutzerschnittstelle reflektiert wird und so vor Übelkeit schützt. Eine Bewegung zwischen jeweiligen Abschnitten des VR-Videos 114(2) entsprechend der Ausgabe durch die Quellen-VR-Vorrichtung 104 wird als Vorschauen innerhalb des Ansichtsfensters 516 angezeigt. Im Ergebnis kann die Ausgabe des VR-Videos 114(2) innerhalb des Ansichtsfensters 516 zu einer Zeit (das heißt verschiedene Frames) durchgeführt werden, zu der die Ausgabe des VR-Videos 114(1) außerhalb des Ansichtsfensters 516 und daher asynchron in Bezug sowohl auf die Orientierung wie auch die Zeit ist.
  • 9 zeigt eine exemplarische Implementierung 900, bei der das Ansichtsfenster 516 für eine Anzeige nahe an einer Zeitachse 902 (timeline) konfiguriert ist, um Unterschiede bzw. Differenzen zeitlicher Orte bei der Ausgabe des VR-Videos 114 durch die Prüf- und Quellen-VR-Vorrichtungen 102, 104 anzugeben. Das Kooperationsmodul 126 empfängt zudem die Kooperationsdaten 130, die die Orientierungsdaten 208 und einen Zeitstempel 802 beinhalten. Das Kooperationsmodul 126 erzeugt sodann, wie anhand 8 beschrieben wird, ein Ansichtsfenster 516, das Vorschauen des VR-Videos 114(2), die von der Quellen-VR-Vorrichtung 104 ausgegeben werden, beinhaltet. Mehrere Ansichtsfenster und Vorschauen können in bestimmten Fällen in mehreren Quellen-VR-Vorrichtungen 104 beinhaltet sein.
  • Beim dargestellten Beispiel wird eine Zeitachse 902 angezeigt, die dafür nutzbar ist, zwischen verschiedenen zeitlichen Orten (beispielsweise Frames) innerhalb des VR-Videos 114(1) durch die Prüf-VR-Vorrichtung 102 zu navigieren. Die Zeitachse 902 beinhaltet ein Nutzerschnittstellenelement 904, das einen zeitlichen Ort angibt, der aktuell in dem VR-Video 114(1) ausgegeben wird.
  • Die Zeitachse 902 beinhaltet zudem ein Nutzerschnittstellenelement 906 eines zeitlichen Ortes, an dem das VR-Video 114(2) von der Quellen-VR-Vorrichtung 104 auf Grundlage des Zeitstempels 802 ausgegeben wird. Auf diese Weise nimmt der Prüfnutzer 106 auf einfache Weise die zeitliche Beziehung der Prüf- und Quellen-VR-Vorrichtungen 102, 104 bei der Ausgabe des VR-Videos 114 wahr. Das Nutzerschnittstellenelement 906 ist zudem nutzerseitig auswählbar, um die Ausgabe des Ansichtsfensters 516 als Vorschau, die nahe an dem Nutzerschnittstellenelement 906 angezeigt wird, zu veranlassen. Das Ansichtsfenster 802 beinhaltet, wie anhand 8 beschrieben wird, eine Anzeige des VR-Videos 114(2) entsprechend der Ausgabe durch die Quellen-VR-Vorrichtung 104. Bei einem weiteren Beispiel wird das Ansichtsfenster 802 als das Nutzerschnittstellenelement 906 selbst angezeigt, das heißt, es ist selbst an dem zeitlichen Ort in Bezug auf die Zeitachse 902 angeordnet. Daher beschreibt das Ansichtsfenster 516 beim vorliegenden Beispiel eine wechselseitige zeitliche Beziehung der Ausgabe durch das VR-Video 114 durch die Prüf- und Quellen-VR-Vorrichtungen 102, 104.
  • Das Ansichtsfenster 516 beinhaltet beim vorliegenden Beispiel zudem Optionen dafür, die Ausgabe des VR-Videos 114 durch die Prüf- und Quellenvorrichtungen 102, 104 zu synchronisieren. Eine Option „Synchronisieren der Zeit“ („Sync Time“) 908 ist dafür auswählbar, die Zeiten bei der Ausgabe des VR-Videos 114 durch die Prüfvorrichtung 102 auf Grundlage des Zeitstempels 802 mit der Quellenvorrichtung 104 zu synchronisieren. Im Ergebnis wird derselbe Frame des VR-Videos sowohl von den Prüf- wie auch Quellen-VR-Vorrichtungen 102, 104 ausgegeben. Daher unterstützt die Auswahl dieser Option die synchronisierten Zeiten und die asynchrone Orientierung in Bezug auf die Ausgabe des VR-Videos 114.
  • Eine weitere Option ist zudem nutzerseitig als „Synchronisieren der Zeit und der Anzeige“ („Sync Time and Display“) 910 bei der Ausgabe des VR-Videos 114 auswählbar. Die Auswahl dieser Option veranlasst, dass das Kooperationsmodul 126 die Ausgabe des VR-Videos 114(1) entsprechend der Steuerung bzw. Regelung durch den Prüfnutzer 106 durch die Ausgabe des VR-Videos 114(2) entsprechend der Ausgabe durch die Quellen-VR-Vorrichtung 104 und entsprechend der Steuerung bzw. Regelung durch die Quellen-VR-Vorrichtung 104 ersetzt. Wie vorstehend beschrieben worden ist, verursachen diesem Zweck dienende herkömmliche Techniken Übelkeit, da die Bewegung innerhalb der Ausgabe des VR-Videos 114 durch die Prüf-VR-Vorrichtung 102 der Bewegung des Kopfes des Prüfnutzers 106 nicht folgt. Entsprechend können in einem derartigen Fall auch Übelkeitshemmungsabschnitte ausgegeben werden, wofür im nachfolgenden Abschnitt Beispiele beschrieben werden.
  • Übelkeitshemmungsabschnitte bei einer geteilten Anzeige des VR-Videos
  • 10 und 11 zeigen ein System 1000 beziehungsweise eine Prozedur 1100 bei einer exemplarischen Implementierung, bei der ein Übelkeitshemmungsabschnitt erzeugt wird, um die Kooperation zwischen Nutzern in Bezug auf das VR-Video 114 zu unterstützen. Wie vorstehend anhand 6A bis 7D beschrieben worden ist, kann das VR-Video 114 die Möglichkeit unterstützen, verschiedene Orte mit einer VR-Szene des VR-Videos 114 anzusehen und dorthin zu navigieren. Als Teil einer Kooperation zwischen den Prüf- und Quellennutzern 106, 108 kann eine von dem Quellennutzer 108 gesteuerte bzw. geregelte Navigation beim Prüfnutzer 106 jedoch Übelkeit hervorrufen, und zwar insbesondere dann, wenn das gesamte Sichtfeld der Prüf-VR-Vorrichtung 102 von dem Quellennutzer 108 gesteuert bzw. geregelt wird. Dies rührt beispielsweise daher, dass eine Bewegung, die von dem Prüfnutzer 106 gesehen wird, im Innenohr des Prüfnutzers 106 nicht wahrgenommen wird. Des Weiteren kann eine Bewegung des Prüfnutzers 106 auch gegenläufig zu einer Bewegung des Quellennutzers 108 sein, was dieses Problem weiter verschärfen kann, und zwar beispielsweise dann, wenn sich die Prüf- und Quellennutzer 106, 108 in verschiedenen Richtungen bewegen.
  • Entsprechend beinhaltet das Kooperationsmodul 126 beim vorliegenden Beispiel ein Übelkeitshemmungserzeugungsmodul 1002, das dafür konfiguriert ist, einen Übelkeitshemmungsabschnitt 1004 zur gleichzeitigen Anzeige mit der Ausgabe des VR-Videos 114(2), die von einem weiteren Nutzer gesteuert bzw. geregelt wird, zu erzeugen. Die Prüf-VR-Vorrichtung 102 ist beispielsweise derart dargestellt, dass sie Kooperationsdaten 130 empfängt, die eine Orientierung innerhalb einer Ausgabe des VR-Videos 114(2), wie vorstehend beschrieben worden ist, beschreiben. Diese Orientierung wird genutzt, um die Ausgabe des VR-Videos 114(2) zu steuern bzw. zu regeln. So sieht der Prüfnutzer 106 das VR-Video 114(2), das von dem Quellennutzer 108 über die Quellen-VR-Vorrichtung 104 angesehen wird.
  • Die Bewegung der Prüf-VR-Vorrichtung wird von dem Übelkeitshemmungserzeugungsmodul 1002 beispielsweise durch eine Nutzereingabevorrichtung detektiert (Block 1704). Beinhalten kann dies eine Bewegung des Kopfes des Nutzers (beispielsweise durch Gyroskope, Trägheitssensoren) oder eine andere Navigationseingabe, wie vorstehend anhand 3 beschrieben worden ist. In Reaktion hierauf wird ein Übelkeitshemmungsabschnitt 1004 zur Anzeige in einer Nutzerschnittstelle erzeugt (Block 1706). Der erzeugte Übelkeitshemmungsabschnitt 1004 wird in der Nutzerschnittstelle gleichzeitig mit der Anzeige des VR-Videos 114(2) entsprechend der Steuerung bzw. Regelung durch die Quellen-VR-Vorrichtung 104 angezeigt. Daher folgt die Bewegung des VR-Videos 114(2) der Bewegung entsprechend der Spezifizierung durch die Quellen-VR-Vorrichtung 104.
  • Gleichwohl folgt die Bewegung des erzeugten Übelkeitshemmungsabschnittes 1004 der Bewegung entsprechend der Spezifizierung durch die Prüf-VR-Vorrichtung 102 (Block 1708). Dies kann auf mehrere Arten bewerkstelligt werden. Beim dargestellten Beispiel wird der Übelkeitshemmungsabschnitt 1004 an Umfangsabschnitten 1006, 1008 einer Nutzerschnittstelle zusammen mit dem Abschnitt des VR-Videos 114(2) angezeigt. Die Übelkeitshemmungsabschnitte 1004 sind beim vorliegenden Beispiel kreisförmig und halbdurchsichtig, sodass ein Abschnitt des VR-Videos 114(2) „durch“ diese Abschnitte sichtbar ist, wodurch die Interferenz bzw. Wechselwirkung mit der Anzeige des VR-Videos 114(2) begrenzt wird.
  • Die Übelkeitshemmungsabschnitte 1004 sind dafür konfiguriert, auf die Bewegung entsprechend der Definition durch die Prüf-VR-Vorrichtung 102, jedoch nicht durch die Quellen-VR-Vorrichtung 104 zu reagieren. Beinhalten kann dies die Erzeugung der Übelkeitshemmungsabschnitte 1004, die so aussehen, als würden sie innerhalb der Umfangsabschnitte 1006, 1008 in Reaktion auf eine Bewegung des Prüfnutzers 106 derart scrollen, dass diese Abschnitte in Bezug auf die Umgebung der Nutzer stationär erscheinen, und zwar beispielsweise bei einer Bewegung des Kopfes des Nutzers nach oben und nach unten oder von links nach rechts. Dies bietet dem Nutzer eine Rückmeldung, die auf die Bewegung reagiert, was die Wahrscheinlichkeit dafür verringert, dass bei dem Prüfnutzer 106 Übelkeit hervorgerufen wird, und dies auch dann, wenn die Steuerung bzw. Regelung des Sichtfeldes der Prüf-VR-Vorrichtung 102 zur Anzeige des VR-Videos 114(2) durch die Quellen-VR-Vorrichtung 104 durchgeführt wird. Im Ergebnis kann eine Kooperation zwischen VR-Vorrichtungen durchgeführt werden, um eine vollständige Immersion zu unterstützen, was bei herkömmlichen Techniken, denen eine derartige Rückmeldung fehlt, nicht möglich ist.
  • Kooperationsdaten und Kommentare
  • In den vorhergehenden Abschnitten sind die Kooperationsdaten 130 dafür konfiguriert, eine Kooperation zu unterstützen, indem ein Abschnitt des VR-Videos 114, der von einer Quellen-VR-Vorrichtung 104 ausgegeben wird, für eine Prüf-VR-Vorrichtung angegeben wird. In diesem Abschnitt werden Kommentare beschrieben, die als Teil der Kooperationsdaten 130 dafür eingesetzt werden, die wechselseitige Kommunikation der Prüf- und Quellennutzer 106, 108 der Prüf- und Quellen-VR-Vorrichtungen 102, 104 zu den jeweiligen Zeiten und mit den jeweiligen Orientierungen bei der Ausgabe des VR-Videos 114 zu unterstützen. Auf diese Weise kann die Kommunikation der Kooperationsdaten 130 und nicht das Streamen des VR-Videos 114 selbst die Echtzeitinteraktion zwischen den Vorrichtungen durch eine effiziente Nutzung von Netzwerk- und Rechenressourcen unterstützen. Die Kooperationsdaten 130 können beispielsweise dafür genutzt werden, Kommentare durch die Prüf-VR-Vorrichtung bei der Ausgabe in Verbindung mit einer lokal gespeicherten Version des VR-Videos zu erzeugen. Daher ist die Menge an Kooperationsdaten 130, die zwischen den Vorrichtungen kommuniziert wird, beträchtlich niedriger als beim Streamen des VR-Videos, bei dem die Kommentare als Teil des Videos beinhaltet sind.
  • 12 zeigt eine exemplarische Implementierung 1200, bei der das Kooperationsmodul 128 des Weiteren dafür konfiguriert ist, Kommentardaten 1202 durch die Verwendung eines Kommentarmoduls 1204 zu sammeln. Bei den vorhergehenden Beispielen beschreiben die Kooperationsdaten 130 eine Orientierung und/oder Zeit (beispielsweise einen Zeitstempel) in Bezug auf eine Ausgabe des VR-Videos 114(2) durch die Orientierungsdaten 208 beziehungsweise einen Zeitstempel 802. Beim vorliegenden Beispiel werden die Kommentardaten 1202 ebenfalls von dem Kommentarmodul 1204 gesammelt, um Gedanken und Interaktionen des Quellennutzers 108 in Bezug auf diese Orientierungen und Zeiten innerhalb der Ausgabe des VR-Videos 114(2) zu beschreiben. Die Kommentardaten 1202 werden sodann von der Prüf-VR-Vorrichtung 102 verwendet, um einen Kommentar zur Ausgabe in Verbindung mit dem VR-Video 114(1) zu erzeugen.
  • Beispiele für Typen von Kommentaren, die von dem Kommentarmodul 1204 sammelbar sind, beinhalten Aktivkommentare, die von dem Aktivkommentarmodul 1206 sammelbar sind, und Passivkommentare, die von dem Passivkommentarmodul 1208 sammelbar sind. Passivkommentare sind Kommentare, die von dem Passivkommentarmodul 1208 beobachtet werden und die nutzerseitig nicht aktiv initiiert werden. Das Passivkommentarmodul 1208 kann die Nutzereingabevorrichtung 202 beispielsweise als Mikrofon nutzen, um Daten automatisch und ohne Nutzereingriff zu erzeugen, wodurch Vorlieben („Gefällt mir“, „Likes“) oder Abneigungen („Gefällt mir nicht“, „Dislikes“) auf Grundlage von von dem Quellennutzer 108 erzeugten Geräuschen, so beispielsweise Klatschen, Seufzen, Lachen und dergleichen mehr, beschrieben werden.
  • Bei einem weiteren Beispiel ist die Nutzereingabevorrichtung 202 dafür konfiguriert, Gesichtsausdrücke des Quellennutzers 108 zu erfassen und hieraus Kommentardaten 1204, die Vorlieben (Likes) und Abneigungen (Dislikes) beschreiben, zu erzeugen. Auf diese Weise können die Kommentardaten 1204 den Umfang der Beschreibung einer Nutzerinteraktion als Teil der Kooperationsdaten 130 erweitern. Die Kommentardaten 1202 werden sodann mit den Orientierungsdaten 208 und/oder dem Zeitstempel 802 zur Erzeugung eines Kommentars, wie anhand 13 noch weiter beschrieben wird, verknüpft.
  • Aktivkommentare sind demgegenüber Kommentare, die von dem Quellennutzer 108 aktiv über Nutzereingaben 210, die von der Nutzereingabevorrichtung 202 empfangen werden, initiiert werden. Der Quellennutzer 108 kann beispielsweise die Erzeugung eines Kommentars als Sprachclip, freihändige Zeichnung, Nutzerrangbewertung (beispielsweise „Daumen hoch“ oder „Daumen runter“) und dergleichen mehr initiieren. Daher implizieren Aktivkommentare eine aktive Beteiligung durch den Quellennutzer 108 bei der Bereitstellung des Kommentars, der von den Kommentardaten 1202 definiert wird.
  • Die Quellen-VR-Vorrichtung 104 kann beispielsweise das VR-Video 114(2) zur Ansicht durch den Quellennutzer 108, wie vorstehend beschrieben worden ist, ausgeben. Eine Nutzereingabe wird von der Quellen-VR-Vorrichtung 104 über die Nutzereingabevorrichtung 202 von dem Quellennutzer 108 zur Eingabe eines Kommentars empfangen. Der Quellennutzer 108 kann in der Nutzerschnittstelle 206 beispielsweise eine Option zur Bereitstellung eines Kommentars auswählen.
  • In Reaktion hierauf unterbricht die Quellen-VR-Vorrichtung 104 im vorliegenden Fall die Ausgabe des VR-Videos 114(2). Empfangen wird von der Quellen-VR-Vorrichtung zudem eine Nutzereingabe 210, die einen Kommentar spezifiziert, so beispielsweise eine freihändige Linie oder eine andere Abfolge von Linien, die einen Abschnitt des VR-Videos 114(2) definieren, eine gesprochene Äußerung, eine Geste und dergleichen mehr. Die Nutzereingabe 210 wird beim vorliegenden Beispiel von dem Aktivkommentarmodul 120 als Kommentardaten 1202 in Verbindung mit einem Zeitstempel 802 entsprechend einem Frame, bei dem das VR-Video 114(2) unterbrochen wird, verknüpft. Die Kommentardaten 1202 werden zudem mit Orientierungsdaten 208 verknüpft, die eine Orientierung des Kommentars in Bezug auf die Ausgabe des VR-Videos 114(2) beispielsweise als Koordinaten, wie anhand 3 beschrieben worden ist, beschreiben.
  • Die Kooperationsdaten 130, die die Kommentardaten 1202, den Zeitstempel 802 und die Orientierungsdaten 208 beinhalten, werden sodann durch die Quellen-VR-Vorrichtung 104 an die Prüf-VR-Vorrichtung 102 übertragen. Die Kooperationsdaten 103 können, wie vorstehend beschrieben worden ist, die Netzwerk- und Recheneffizienz im Vergleich zur Kommunikation des VR-Videos selbst viel mehr fördern. Die Kooperationsdaten werden sodann von der Prüf-VR-Vorrichtung 102 genutzt, um die Ausgabe des Kommentars, wie nachstehend noch weiter beschrieben wird, zu steuern bzw. zu regeln.
  • 13 zeigt eine exemplarische Implementierung 1300 der Ausgabe des VR-Videos 114(1) durch die Prüf-VR-Vorrichtung 102, die einen Kommentar 1304 beinhaltet. Gebildet wird die Prüf-VR-Vorrichtung 102, wie bereits beschrieben worden ist, von einem VR-Contentmodul 110 mit einem Kooperationsmodul 126 und einem VR-Contentwiedergabemodul 226. Ein Kommunikationsmodul 1302 ist in diesem Fall dafür konfiguriert, ein Nutzerschnittstellenelement 222, das den Kommentar 1304 zur Ansicht als Teil beinhaltet, für das VR-Video 114(1) zu erzeugen.
  • Wie vorstehend beschrieben worden ist, ist der Kommentar 1306 mit einer Orientierung und einer Zeit, die durch die Orientierungsdaten 208 beziehungsweise den Zeitstempel 802 definiert sind, als Teil der Kooperationsdaten 130 verknüpft. Entsprechend kann der Kommentar 1306 derart konfiguriert sein, dass er einem bestimmten Abschnitt des VR-Videos 114(1) entspricht, der den Orientierungsdaten 208 und der Zeit (beispielsweise dem Frame) entsprechend dem Zeitstempel 802 in Bezug auf die Ausgabe des VR-Videos 114(1), beispielsweise die freihändige Linie 1306 und der Text 1308, entspricht.
  • Der Kommentar 1304 kann zudem einen zeitlichen Ort innerhalb einer Ausgabe des VR-Videos 114(1) über ein jeweiliges Nutzerschnittstellenelement 1310 spezifizieren. Das Nutzerschnittstellenelement 1310 des Kommentars 1304 kann beispielsweise einem Frame als Teil einer Zeitachse 1312 entsprechen, die zum Navigieren zu verschiedenen zeitlichen Orten innerhalb einer Ausgabe des VR-Videos 114(1), beispielsweise zu verschiedenen Frames, genutzt wird. Entsprechend kann das Nutzerschnittstellenelement 1310 dasjenige, „wohin zu schauen ist“, bei der Ausgabe des VR-Videos 114(1), beispielsweise für die freihändige Linie 1306 oder den Text 1308, zeitlich angeben. Auf diese Weise kann das Kooperationsmodul 126 eine effiziente Navigation und Ausgabe des Kommentars 1306 als Teil der Kooperation unter Verwendung des VR-Videos 114 unterstützen.
  • Die Prüf-VR-Vorrichtung 104 kann beispielsweise das Nutzerschnittstellenelement 1310 in Bezug auf die Zeitachse 1312, die angibt, dass ein Kommentar 1304 mit einem jeweiligen Zeitstempel 802 verknüpft ist, anzeigen. Die Auswahl des Nutzerschnittstellenelementes 1310 kann sodann die Ausgabe des Kommentars 1304 zur jeweiligen Zeit (beispielsweise Frame) bei der Ausgabe des VR-Videos 114(1) auf Grundlage des Zeitstempels 802 und des jeweiligen Abschnittes in jenem Frame des VR-Videos auf Grundlage der Orientierungsdaten 208 veranlassen. Auf diese Weise kann der Prüfnutzer 106 den Kommentar 1304 effizient und akkurat ansehen und daher mit dem Quellennutzer 108 zwischen den Prüf- und Quellen-VR-Vorrichtungen 102, 104 kooperieren.
  • Der Kommentar 1304 kann zudem automatisch und ohne Nutzereingriff durch die Prüf-VR-Vorrichtung 102 ausgegeben werden. Die Prüf-VR-Vorrichtung 102 kann beispielsweise das VR-Video 114(1) als Normalfall ausgeben, wobei hier die Navigation innerhalb des VR-Videos 114(1) durch die Prüf-VR-Vorrichtung 102 beispielsweise durch eine Bewegung des Kopfes des Prüfnutzers 106 gesteuert bzw. geregelt wird. Die Kooperationsdaten 130 können sodann zur Ausgabe eines Ansichtsfensters 516, wie vorstehend beschrieben worden ist, auf Grundlage der Orientierungsdaten 208 wie auch des Zeitstempels 802 genutzt werden.
  • Das Ansichtsfenster 516 kann beispielsweise über mehrere Frames des VR-Videos 114(1) hinweg auf Grundlage des Zeitstempels 802 derart ausgegeben werden, dass der Prüfnutzer 106 dazu in der Lage ist, das Ansichtsfenster 516 ohne Unterbrechen der Ausgabe des VR-Videos 114(1) anzusehen. Der Kommentar 1304 (beispielsweise die freihändige Linie 1306, der Text 1308, die gesprochene Äußerung und dergleichen mehr) wird innerhalb dieses Ansichtsfensters 516 beispielsweise über mehrere Frames hinweg angezeigt. Dies kann dadurch erfolgen, dass nachgeahmt wird, wie der Quellennutzer 108 die Kommentardaten 1202 eingibt (beispielsweise durch Nachahmung des Zeichnens der freihändigen Linie über eine Abfolge von Frames hinweg), oder es wird eine vollständige Version des Kommentars entsprechend einer Kopie über aufeinanderfolgende Frames hinweg bei der Ausgabe des VR-Videos gezeigt. Auf diese Weise wird der Kommentar 1304 in Bezug auf das VR-Video 114(1) auf intuitive Weise ausgegeben und kann durch die vorbeschriebenen Nutzerschnittstellenelemente ausfindig gemacht werden, was die Wahrscheinlichkeit einer Übelkeit, die bei herkömmlichen Techniken und Systemen auftritt, verringert.
  • Zusätzliche Beispiele für Kommentare beinhalten die Möglichkeit, Optionen im Sinne einer Vorliebe bzw. eines „Gefällt mir“ 1316 oder einer Abneigung bzw. eines „Gefällt mir nicht“ 1318 eines entsprechenden Abschnittes des VR-Videos 114(1) auszuwählen. Dies bewirkt, dass der Kommentar 1320 mit dem entsprechenden Zeitstempel 802 und den entsprechenden Orientierungsdaten 208 zur Ansicht in Bezug auf die Zeitachse 1312 verknüpft wird. Viele weitere Beispiele, darunter Audionotizen und entsprechende Hinweise auf die Verfügbarkeit von Audionotizen als Kommentar in Bezug auf die Zeitachse 1312, sind ebenfalls mit einbezogen. Auf diese Weise unterstützen die Kommentare eine Visualisierung der Aktivitäten, die von dem Quellennutzer 108 durchgeführt werden, gegenüber dem Prüfnutzer 106 im Umfeld des VR-Videos 114.
  • Nichtmodale Kooperation
  • 14 zeigt ein exemplarisches System 1400 einer Kooperation, bei der ein VR-Video über ein Ortsbereichsnetzwerk geteilt wird und Kooperationsdaten, die eine Interaktion mit dem Content, so beispielsweise eine Prüfung, implizieren, empfangen werden. 15 zeigt eine Prozedur 1500 bei einer exemplarischen Implementierung, bei der eine Kooperation über eine Drahtlosnetzwerkverbindung im Umfeld der Ausführung einer Contentbearbeitungsanwendung durch eine Rechenvorrichtung durchgeführt wird.
  • Beschrieben werden im vorliegenden Abschnitt Techniken und Systeme zum Unterstützen einer effizienten Verteilung eines VR-Videos als Teil einer Kooperation im Umfeld einer Contentbearbeitungsanwendung. Auf diese Weise kann ein VR-Video geteilt werden, und es können Kommentare über Kooperationsdaten empfangen werden, die sich aus dem Teilen ergeben, ohne dass erforderlich wäre, dass ein Nutzer „außerhalb“ des Umfeldes einer Nutzerschnittstelle der Contentbearbeitungsanwendung navigiert, was hier als „nichtmodal“ bezeichnet wird. Auf diese Weise unterstützt die Contentbearbeitungsanwendung eine erhöhte Nutzereffizienz und verbessert zudem die Rechenressourceneffizienz, was im Folgenden noch weiter beschrieben wird.
  • Wie dargestellt ist, beinhaltet die Prüf-VR-Vorrichtung 102 ein VR-Contentmodul 110 und ein Kooperationsmodul 126, wie vorstehend beschrieben worden ist. Das Kooperationsmodul 126 ist dafür konfiguriert, Kooperationsdaten 130 zum Teilen mit einer Rechenvorrichtung 802 zu erzeugen. Die Rechenvorrichtung 802 beinhaltet beim vorliegenden Beispiel eine Contentbearbeitungsanwendung 804, die von einem Verarbeitungssystem ausführbar und in einem computerlesbaren Speichermedium speicherbar ist und die dem Modifizieren des VR-Videos 114, so beispielsweise dem Erstellen, Bearbeiten, Modifizieren, Speichern und/oder Ausgeben des Contents, dient.
  • Zunächst wird die Contentbearbeitungsanwendung 1404 von einer Rechenvorrichtung 1402 ausgeführt, um ein VR-Video zu modifizieren (Block 1502). Die Ausführung der Contentbearbeitungsanwendung 1404 unterstützt zudem eine nichtmodale Kooperation im Umfeld der Anwendung. Ein Videohersteller kann beispielsweise mit einer Nutzerschnittstelle 1408 der Contentbearbeitungsanwendung 1404 interagieren, um das VR-Video 114 herstellen, und möchte dabei Ideen mehrerer Prüfer einbeziehen. Diesem Zweck dienende herkömmliche Techniken implizieren das Hinterlegen bzw. Posten des VR-Videos auf einer Webseite (beispielsweise YouTube® oder Facebook®), das lokale „Seitenladen“ des Videos zu der VR-Vorrichtung und das anschließende Zugreifen auf ein Medienabspielgerät zur Ansicht des Videos und dergleichen mehr. Jede dieser herkömmlichen Techniken ist jedoch dahingehend modal, dass ein Prüfer gezwungen wird, „außerhalb“ einer Nutzerschnittstelle der Contentbearbeitungsanwendung zu navigieren, um das Video zu teilen und Kommentare, die sich aus einer Prüfung des Videos ergeben, zu empfangen.
  • Entsprechend werden nichtmodale Techniken durch die Contentbearbeitungsanwendung 1404 implementiert, die das Teilen und Prüfen des VR-Videos 114 im Umfeld der Contentbearbeitungsanwendung 214 unterstützt. Zu diesem Zweck wählt der Videohersteller eine Option als Teil der Contentbearbeitungsanwendung aus, um das VR-Video 114 zum Teilen verfügbar zu machen. Durchgeführt werden kann das Teilen beispielsweise unter Verwendung eines drahtlosen Ortsbereichsnetzwerkes, so beispielsweise eines Netzwerkes, das entsprechend einem oder mehreren Drahtlosstandards (beispielsweise Wi-Fi, IEEE 802.11), Bluetooth® und dergleichen mehr als Ortsbereichsnetzwerk (LAN) konfiguriert ist.
  • In Reaktion hierauf wird die Contentbearbeitungsanwendung 1404 von der Rechenvorrichtung 1402 ausgeführt, um ein Nutzerschnittstellenelement (beispielsweise Signaldaten (beacon data)), das die Verfügbarkeit des VR-Videos 114 angibt, drahtlos zu kommunizieren (Block 1504). Ein Prüfer sieht durch eine Interaktion mit dem Kooperationsmodul 126 auf der jeweiligen Prüf-VR-Vorrichtung 102 beispielsweise das Nutzerschnittstellenelement in einer Nutzerschnittstelle, so beispielsweise „Der Videohersteller möchte, dass Sie ein VR-Video prüfen“. In Reaktion hierauf stellt der Prüfer eine Nutzereingabe durch eine Interaktion mit einer Nutzerschnittstelle des Kooperationsmoduls 126 bereit, um eine Direktdrahtlosverbindung mit der Rechenvorrichtung 1402 des Videoherstellers beispielsweise über Wi-Fi, Bluetooth® und dergleichen mehr über ein Ortsbereichsnetzwerk (LAN) anzufordern. Das Nutzerschnittstellenelement kann einem Broadcasting bzw. Rundsenden unterzogen werden, so dies für beliebige lokale VR-Vorrichtungen verfügbar ist, oder kann an VR-Vorrichtungen, die von dem Videohersteller identifiziert werden, kommuniziert werden.
  • Die Anforderung/Aufforderung kann sodann in einer Nutzerschnittstelle 1408 für den Videohersteller ausgegeben werden, um vor dem Initiieren der Drahtlosnetzwerkverbindung den Zugriff zu verifizieren, und/oder kann automatisch und ohne Nutzereingriff durch die Contentbearbeitungsanwendung 1404 identifiziert werden. Zu diesem Zeitpunkt wird die Drahtlosnetzwerkverbindung zwischen der Rechenvorrichtung 1402 und der Prüf-VR-Vorrichtung 102 in Reaktion auf den Empfang der Netzwerkverbindungsaufforderung initiiert (Block 1506).
  • Sobald die Drahtlosnetzwerkverbindung initiiert ist, wird das VR-Video über das LAN an die Prüf-VR-Vorrichtung 102 gestreamt (Block 1508). Auf diese Weise können Speicher- und Netzwerkressourcen der Prüf-VR-Vorrichtung 102 im Gegensatz zu Techniken gespart werden, die das Herunterladen des gesamten Contents erfordern, obwohl eine solche Technik auch zum Einsatz kommen kann, ohne vom Wesen und Umfang der hier beschriebenen Techniken abzugehen.
  • Der Prüfer interagiert sodann mit dem VR-Video 114 über die jeweilige VR-Vorrichtung 102. Die Kooperationsdaten 130 werden sodann durch das Kooperationsmodul 126 erzeugt und über das Netzwerk 132 zurück an die Rechenvorrichtung 802 kommuniziert. Die Kooperationsdaten 130 können zahlreiche Formen annehmen. Beinhalten können die Kooperationsdaten 130 beispielsweise, wie vorstehend beschrieben worden ist, Kommentare, so beispielsweise „Daumen hoch“ oder „Daumen runter“, die mit jeweiligen Zeiten oder Orten innerhalb des VR-Videos verknüpft sind, eine Passivrückmeldung und dergleichen mehr.
  • Die Rechenvorrichtung 1402 des Videoherstellers empfängt sodann die Kooperationsdaten (Block 1510) und gibt die Kooperationsdaten in der Nutzerschnittstelle 1410 der Contentbearbeitungsanwendung 1402 (Block 1512) aus. Konfigurieren kann die Nutzerschnittstelle 1408 die Kooperationsdaten 130 beispielsweise zur Anzeige von Änderungen, Vorschlägen, Kommentaren und dergleichen gleichzeitig mit dem VR-Video 114 in der Nutzerschnittstelle 1410. Auf diese Weise kann der Videohersteller im Umfeld der Contentbearbeitungsanwendung 804 bleiben und Kommentare auf nichtmodale Weise von anderen VR-Vorrichtungen, so beispielsweise von der VR-Vorrichtung 102, teilen und empfangen.
  • Exemplarisches System und exemplarische Vorrichtung
  • 16 zeigt allgemein bei 1600 ein exemplarisches System, das eine exemplarische Rechenvorrichtung 1602 beinhaltet, die für ein oder mehrere Rechensysteme und/oder Vorrichtungen repräsentativ ist, die verschiedene der hier beschriebenen Techniken implementieren können. Dies ist durch die Einbeziehung des Kooperationsmoduls 126 dargestellt. Die Rechenvorrichtung 1602 kann beispielsweise ein Server eines Dienstanbieters, eine Vorrichtung, die mit einem Client (beispielsweise einer Clientvorrichtung) verknüpft ist, ein On-Chip-System und/oder eine beliebige andere geeignete Rechenvorrichtung oder ein solches Rechensystem sein.
  • Die exemplarische Rechenvorrichtung 1602 beinhaltet, wie dargestellt ist, ein Verarbeitungssystem 1604, ein oder mehrere computerlesbare Medien 1606 sowie eine oder mehrere I/O-Schnittstellen 1608, die kommunikationstechnisch miteinander gekoppelt sind. Obwohl dies nicht gezeigt ist, kann die Rechenvorrichtung 1602 des Weiteren einen Systembus oder ein anderes Daten- und Befehlsübertragungssystem beinhalten, das die verschiedenen Komponenten miteinander koppelt. Ein Systembus kann eine beliebige Busstrukur oder eine Kombination aus verschiedenen Busstrukturen beinhalten, so beispielsweise einen Speicherbus oder einen Speichercontroller, einen Peripheriebus, einen universellen seriellen Bus und/oder einen Prozessor- oder lokalen Bus, der vielerlei Busarchitekturen einsetzt. Zahlreiche weitere Beispiele sind miteinbezogen, so beispielsweise Steuer- bzw. Regel- und Datenleitungen.
  • Das Verarbeitungssystem 1604 stellt eine Funktionalität zur Durchführung einer oder mehrerer Operationen unter Verwendung von Hardware bereit. Entsprechend ist das Verarbeitungssystem 1604 derart dargestellt, dass es ein Hardwareelement 1610 beinhaltet, das als Prozessoren, funktionelle Blöcke und dergleichen mehr konfiguriert sein kann. Dies kann eine Implementierung in Hardware als anwendungsspezifische integrierte Schaltung oder als andere logische Vorrichtung, die unter Verwendung eines oder mehrerer Halbleiter gebildet ist, beinhalten. Die Hardwareelemente 1610 sind nicht durch die Materialien, aus denen sie gebildet sind, oder die Verarbeitungsmechanismen, die dabei zum Einsatz kommen, beschränkt. Die Prozessoren können beispielsweise aus einem Halbleiter / Halbleitern und/oder Transistoren (beispielsweise elektronischen integrierten Schaltungen (ICs)) bestehen. In einem derartigen Umfeld können prozessorausführbare Anweisungen elektronisch ausführbare Anweisungen sein.
  • Die computerlesbaren Speichermedien 1606 sind derart dargestellt, dass sie einen Speicher / eine Ablage 1612 beinhalten. Der Speicher / die Ablage 1612 stellt eine Speicher-/Ablagekapazität dar, die mit einem oder mehreren computerlesbaren Medien verknüpft ist. Die Speicher-/Ablagekomponente 1612 kann flüchtige Medien (so beispielsweise einen Speicher mit wahlfreiem Zugriff (RAM)) und/oder nichtflüchtige Medien (so beispielsweise einen Nur-Lese-Speicher ROM, einen Flash-Speicher, optische Platten, magnetische Platten und dergleichen mehr) beinhalten. Die Speicher-/Ablagekomponente 1612 kann feste Medien (beispielsweise einen RAM, einen ROM, ein Festplattenlaufwerk und dergleichen mehr) wie auch entfernbare Medien (beispielsweise einen Flash-Speicher, ein entfernbares Festplattenlaufwerk, eine optische Platte und dergleichen mehr) beinhalten. Die computerlesbaren Medien 1606 können auf zahlreiche andere Weisen, wie nachstehend noch beschrieben wird, konfiguriert sein.
  • Die Eingabe-/Ausgabeschnittstelle / die Eingabe-/Ausgabeschnittstellen 1608 stellt/stellen eine Funktionalität dar, die einem Nutzer ermöglicht, Befehle und Information in die Rechenvorrichtung 1602 einzugeben, und die zudem ermöglicht, dass dem Nutzer und/oder anderen Komponenten oder Vorrichtungen Information unter Verwendung verschiedener Eingabe-/Ausgabevorrichtungen präsentiert wird. Beispiele für Eingabevorrichtungen beinhalten eine Tastatur, eine Cursorsteuer- bzw. Regelvorrichtung (beispielsweise eine Maus), ein Mikrofon, einen Scanner, eine Berührfunktionalität (beispielsweise kapazitiv oder andere Sensoren, die zum Detektieren einer physischen Berührung konfiguriert sind), eine Kamera (die beispielsweise sichtbare oder nichtsichtbare Wellenlängen, so beispielsweise Infrarotfrequenzen, zum Erkennen einer Bewegung als Geste, die keine Berührung impliziert, einsetzt), und dergleichen mehr. Beispiele für Ausgabevorrichtungen beinhalten eine Anzeigevorrichtung (beispielsweise einen Monitor oder Projektor), Lautsprecher, einen Drucker, eine Netzwerkkarte, eine Taktilreaktionsvorrichtung und dergleichen mehr. Die Rechenvorrichtung 1602 kann auf vielerlei Arten, wie nachstehend noch beschrieben wird, konfiguriert sein, um die Nutzerinteraktion zu unterstützen.
  • Es sind verschiedenartige Techniken im allgemeinen Kontext von Software, Hardwareelementen oder Programmmodulen beschrieben worden. Im Allgemeinen beinhalten derartige Module Routinen, Programme, Objekte, Elemente, Komponenten, Datenstrukturen und dergleichen mehr, die bestimmte Aufgaben durchführen oder bestimmte abstrakte Datentypen implementieren. Die Begriffe „Modul“, „Funktionalität“ und „Komponente“ stellen im Sinne des Vorliegenden im Allgemeinen Software, Firmware, Hardware oder eine Kombination hieraus dar. Die Merkmale der hier beschriebenen Techniken sind plattformunabhängig, was bedeutet, dass die Techniken auf vielerlei kommerziellen Rechenplattformen mit vielerlei Prozessoren implementiert werden können.
  • Eine Implementierung der hier beschriebenen Module und Techniken kann auf irgendeiner Form von computerlesbarem Medium gespeichert sein oder über dieses übertragen werden. Die computerlesbaren Medien können vielerlei Medien beinhalten, auf die von der Rechenvorrichtung 1602 zugegriffen werden kann. Beispiels- und nicht beschränkungshalber können die computerlesbaren Medien „computerlesbare Speichermedien“ und „computerlesbare Signalmedien“ beinhalten.
  • „Computerlesbare Speichermedien“ können Medien und/oder Vorrichtungen betreffen, die eine dauerhafte und/oder nichttemporäre Speicherung von Information im Gegensatz zur bloßen Signalübertragung, zu Trägerwellen oder zu Signalen per se ermöglichen. Die computerlesbaren Speichermedien betreffen nichtsignaltragende Medien. Computerlesbare Speichermedien beinhalten Hardware, beispielsweise flüchtige und nichtflüchtige, entfernbare und nichtentfernbare Medien, und/oder Speichervorrichtungen, die mit einem Verfahren oder einer Technologie mit Eignung zur Speicherung von Information implementiert sind, so beispielsweise computerlesbare Anweisungen, Datenstrukturen, Programmmodule, logische Elemente/Schaltungen oder andere Daten. Beinhalten können die computerlesbaren Speichermedien unter anderem RAM, ROM, EEPROM, Flash-Speicher oder eine andere Speichertechnologie, CD-ROM, DVD oder einen anderen optischen Speicher, Festplatten, magnetische Kassetten, Magnetband, Magnetplattenspeicher oder andere magnetische Speichervorrichtungen oder eine andere Speichervorrichtung, physische Medien oder physische Objekte, die zur Speicherung der gewünschten Information geeignet sind und auf die von einem Computer zugegriffen werden kann.
  • „Computerlesbare Signalmedien“ können signaltragende Medien betreffen, die dafür konfiguriert sind, Anweisungen an die Hardware der Rechenvorrichtung 1602 beispielsweise über ein Netzwerk zu übertragen. Die Signalmedien können üblicherweise computerlesbare Anweisungen, Datenstrukturen, Programmmodule oder andere Daten in einem modulierten Datensignal, so beispielsweise Trägerwellen, Datensignale oder einen anderen Transportmechanismus, verkörpern. Die Signalmedien können zudem beliebige Informationsverteilungsmedien beinhalten. Der Begriff „moduliertes Datensignal“ bezeichnet ein Signal, das einen oder mehrere Kennwerte aufweist, die derart gewählt oder verändert sind, dass Information in dem Signal codiert ist. Beispiels- und nicht beschränkungshalber beinhalten die Kommunikationsmedien verdrahtete Medien, so beispielsweise ein verdrahtetes Netzwerk oder eine direkt verdrahtete Verbindung, wie auch drahtlose Medien, so beispielsweise akustische, HFbasierte, infrarote und andere drahtlose Medien.
  • Wie vorstehend beschrieben worden ist, stellen die Hardwareelemente 1610 und die computerlesbaren Medien 1606 Module, eine programmierbare Vorrichtungslogik und/oder eine feste Vorrichtungslogik dar, die in Form von Hardware implementiert sind und die bei bestimmten Ausführungsformen dazu eingesetzt werden können, wenigstens einige Aspekte der hier beschriebenen Techniken, so beispielsweise die Durchführung einer oder mehrerer Anweisungen, zu implementieren. Die Hardware kann Komponenten einer integrierten Schaltung oder eines On-Chip-Systems, einer anwendungsspezifischen integrierten Schaltung (ASIC), eines feldprogrammierbaren Gate-Arrays (FPGA), einer komplexen programmierbaren Logikvorrichtung (CPLD) und andere Implementierungen aus Silizium oder anderer Hardware beinhalten. In diesem Zusammenhang kann die Hardware als Verarbeitungsvorrichtung arbeiten, die Programmaufgaben wahrnimmt, die durch Anweisungen und/oder eine Logik definiert sind, die durch die Hardware verkörpert sind, wie auch Hardware, die zur Speicherung von Anweisungen zur Ausführung verwendet wird, beispielsweise die vorstehend beschriebenen computerlesbaren Speichermedien.
  • Kombinationen des Vorgenannten können zudem zur Implementierung verschiedener der hier beschriebenen Techniken eingesetzt werden. Entsprechend können Software, Hardware oder ausführbare Module als eine oder mehrere Anweisungen und/oder als Logik implementiert sein, die in irgendeiner Form von computerlesbarem Speichermedium und/oder durch ein oder mehrere Hardwareelemente 1610 implementiert sind. Die Rechenvorrichtung 1602 kann dafür konfiguriert sein, bestimmte Anweisungen und/oder Funktionen entsprechend den Software- und/oder Hardwaremodulen zu implementieren. Entsprechend kann eine von der Rechenvorrichtung 1602 ausführbare Implementierung eines Moduls als Software wenigstens teilweise auch in Hardware verwirklicht sein, so beispielsweise unter Verwendung eines computerlesbaren Speichermediums und/oder von Hardwareelementen 1610 des Verarbeitungssystems 1604. Die Anweisungen und/oder Funktionen können von einem oder mehreren physischen Objekten (beispielsweise einer oder mehreren Rechenvorrichtungen 1602 und/oder Verarbeitungssystemen 1604) ausführbar/betreibbar sein, um die hier beschriebenen Techniken, Module und Beispiele zu implementieren.
  • Die hier beschriebenen Techniken können durch verschiedene Konfigurationen der Rechenvorrichtung 1602 unterstützt werden und sind nicht auf die spezifischen Beispiele der hier beschriebenen Techniken beschränkt. Diese Funktionalität kann zudem gänzlich oder in Teilen unter Verwendung eines verteilten Systems implementiert sein, so beispielsweise über eine „Cloud“ 1614 vermittels einer Plattform 1616, wie nachstehend beschrieben wird.
  • Die Cloud 1614 beinhaltet oder stellt eine Plattform 1616 für Ressourcen 1618 dar. Die Plattform 1616 abstrahiert die darunterliegende Funktionalität von Hardware-(beispielsweise Server-) und Softwareressourcen der Cloud 1614. Die Ressourcen 1618 können Anwendungen und/oder Daten beinhalten, die genutzt werden können, während die Computerverarbeitung auf Servern erfolgt, die von der Rechenvorrichtung 1602 entfernt sind (remote). Die Ressourcen 1618 können zudem Dienste beinhalten, die über das Internet und/oder durch ein Teilnehmernetzwerk, beispielsweise ein zellbasiertes oder Wi-Fi-Netzwerk, bereitgestellt werden.
  • Die Plattform 1616 kann zudem Ressourcen und Funktionen zum Verbinden der Rechenvorrichtung 1602 mit anderen Rechenvorrichtungen abstrahieren. Die Plattform 1616 kann dem Abstrahieren der Skalierung von Ressourcen dienen, um einen entsprechenden Grad der Skalierung für einen auftretenden Bedarf an den Ressourcen 1618, die über die Plattform 1616 implementiert sind, bereitzustellen. Entsprechend kann bei einer Ausführungsform mit untereinander verbundenen Vorrichtungen die Implementierung der hier beschriebenen Funktionalität über das System 1600 verteilt sein. Die Funktionalität kann teilweise auf der Rechenvorrichtung 1602 wie auch auf der Plattform 1616, die die Funktionalität der Cloud 1614 abstrahiert, implementiert sein.
  • Schlussbemerkung
  • Obwohl die Erfindung in einer Sprache beschrieben worden ist, die für strukturelle Merkmale und/oder methodische Vorgänge spezifisch ist, sollte einsichtig sein, dass die in den beigefügten Ansprüchen definierte Erfindung nicht unbedingt auf die beschriebenen spezifischen Merkmale oder Vorgänge beschränkt ist. Vielmehr sind die spezifischen Merkmale und Vorgänge als exemplarische Formen der Implementierung der beanspruchten Erfindung offenbart.

Claims (20)

  1. Verfahren, das von einer Prüf-Virtual-Reality (VR)- bzw. Reviewing-Virtual-Realityvorrichtung implementiert wird, zum Unterstützen einer Kooperation mit einer Quellen-VR-Vorrichtung in einer Digitalmedienumgebung, wobei das Verfahren umfasst: durch die Reviewing- bzw. Prüf-VR-Vorrichtung erfolgendes Anzeigen eines VR-Videos in einer Nutzerschnittstelle durch eine Ausgabevorrichtung; durch die Prüf-VR-Vorrichtung erfolgendes Empfangen von Orientierungsdaten, die von der Quellen-VR-Vorrichtung erzeugt werden, wobei die Orientierungsdaten eine Orientierung in Bezug auf das VR-Video entsprechend der Ausgabe durch die Quellen-VR-Vorrichtung angeben; durch die Prüf-VR-Vorrichtung erfolgendes Erzeugen eines Ansichtsfensters auf Grundlage der Orientierung; und durch die Prüf-VR-Vorrichtung erfolgendes Ausgeben des Ansichtsfensters gleichzeitig mit dem VR-Video in der Nutzerschnittstelle durch die Ausgabevorrichtung.
  2. Verfahren nach Anspruch 1, wobei die Orientierungsdaten die Orientierung als Drehung in Bezug auf eine oder mehrere Achsen beschreiben.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Orientierungsdaten die Orientierung unter Verwendung von sechs Freiheitsgraden beschreiben.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Orientierungsdaten eine wahrscheinliche Position eines Kopfes eines Nutzers der Quellen-VR-Vorrichtung beschreiben und zur Steuerung bzw. Regelung der Navigation in Bezug auf das VR-Video genutzt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Navigation des VR-Videos innerhalb des Ansichtsfensters durch die Orientierungsdaten, die von der Quellen-VR-Vorrichtung empfangen werden, gesteuert bzw. geregelt wird und die Navigation des VR-Videos außerhalb des Ansichtsfensters durch Orientierungsdaten, die von Orientierungsverfolgungssensoren der Prüf-VR-Vorrichtung erzeugt werden, gesteuert bzw. geregelt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Ansichtsfenster einen Abschnitt des VR-Videos definiert, der von der Prüf-VR-Vorrichtung ausgegeben wird und der ebenfalls von der Quellen-VR-Vorrichtung ausgegeben wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Ansichtsfenster als Umrandung konfiguriert ist, die einen Abschnitt des VR-Videos, der von der Prüf-VR-Vorrichtung ausgegeben wird, wenigstens teilweise umgibt.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei das VR-Video sowohl von der Prüf-VR-Vorrichtung wie auch der Quellen-VR-Vorrichtung lokal gespeichert wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei: das Ansichtsfenster in Verbindung mit einer Zeitachse des VR-Videos ausgegeben wird; und die Zeitachse ein Nutzerschnittstellenelement beinhaltet, das einen zeitlichen Ort bei der Ausgabe des VR-Videos durch die Quellen-VR-Vorrichtung angibt.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Ansichtsfenster eine Option beinhaltet, die dafür auswählbar ist, eine Zeit bei der Ausgabe des VR-Videos durch die Prüf-VR-Vorrichtung mit einer Zeit bei der Ausgabe des VR-Videos durch die Quellen-VR-Vorrichtung zu synchronisieren.
  11. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Ansichtsfenster eine Option beinhaltet, die dafür auswählbar ist, eine Zeit und einen angezeigten Abschnitt des VR-Videos, der von der Prüf-VR-Vorrichtung ausgegeben wird, mit einer Zeit und einem angezeigten Abschnitt des VR-Videos, der von der Quellen-VR-Vorrichtung ausgegeben wird, zu synchronisieren.
  12. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Erzeugen und das Ausgeben in Reaktion auf ein Bestimmen dessen durchgeführt werden, dass ein Abschnitt des VR-Videos entsprechend der Orientierung als Teil des Anzeigens ausgegeben wird, des Weiteren umfassend: durch die Prüf-VR-Vorrichtung erfolgendes Bestimmen, dass der Abschnitt des VR-Videos entsprechend der Orientierung anschließend nicht als Teil des Anzeigens ausgegeben wird; und durch die Prüf-VR-Vorrichtung erfolgendes Erzeugen eines Nutzerschnittstellenelementes, das dafür nutzbar ist, den Abschnitt des VR-Videos ausfindig zu machen.
  13. Quellen-VR-Vorrichtung zum Erzeugen von Kommentaren als Teil eines Virtual-Reality- bzw. VR-Videos in einer Digitalmedienumgebung, wobei die Quellen-VR-Vorrichtung umfasst: ein Verarbeitungssystem; Orientierungsverfolgungssensoren; eine Ausgabevorrichtung; und ein computerlesbares Speichermedium, auf dem Anweisungen gespeichert sind, die in Reaktion auf eine Ausführung durch das Verarbeitungssystem veranlassen, dass das Verarbeitungssystem Operationen durchführt, die umfassen: Ausgeben des VR-Videos durch die Ausgabevorrichtung in Bezug auf eine Orientierung, die unter Verwendung der Orientierungsverfolgungssensoren detektiert wird; Empfangen einer Eingabe, die einen Kommentar in Bezug auf das VR-Video definiert; Erzeugen von Kollaborations- bzw. Kooperationsdaten, die den Kommentar mit einem Zeitstempel des VR-Videos und einer Koordinate des VR-Videos verknüpfen; und Übertragen der erzeugten Kollaborations- bzw. Kooperationsdaten für den Empfang durch eine Reviewing- bzw. Prüf-VR-Vorrichtung, um die Ausgabe des Kommentars in Bezug auf das VR-Video durch die Prüf-VR-Vorrichtung auf Grundlage des Zeitstempels und der Koordinate zu veranlassen.
  14. Quellen-VR-Vorrichtung nach Anspruch 13, wobei das Übertragen der erzeugten Kollaborations- bzw. Kooperationsdaten ohne Streamen des VR-Videos an die Prüf-VR-Vorrichtung durchgeführt wird und die Ausgabe des Kommentars durch die Prüf-VR-Vorrichtung in Echtzeit unterstützt.
  15. Quellen-VR-Vorrichtung nach Anspruch 13 oder 14, wobei der Kommentar einen Abschnitt des VR-Videos spezifiziert, der als Überlagerung in Bezug auf den Abschnitt gezeichnet ist.
  16. Quellen-VR-Vorrichtung nach einem der Ansprüche 13 bis 15, wobei die erzeugten Kollaborations- bzw. Kooperationsdaten dafür konfiguriert sind, die Anzeige des Abschnittes des VR-Videos zusammen mit dem Kommentar automatisch und ohne Nutzereingriff zu veranlassen, wenn das VR-Video durch die Prüf-VR-Vorrichtung entsprechend dem Zeitstempel ausgegeben wird.
  17. Quellen-VR-Vorrichtung nach einem der Ansprüche 13 bis 16, wobei der Kommentar mit mehreren Zeitstempeln zur Ausgabe des Kommentars verknüpft ist, um nachzuahmen, wie die Eingabe in Bezug auf mehrere Frames des VR-Videos empfangen wird.
  18. System, das eine Quellen-Virtual-Reality- bzw. VR-Vorrichtung umfasst, zum Unterstützen einer Kollaboration bzw. Kooperation mit einer Prüf-VR-Vorrichtung in einer Digitalmedienumgebung, wobei die Prüf-VR-Vorrichtung umfasst: Mittel zum Anzeigen eines VR-Videos in einer Nutzerschnittstelle durch eine Ausgabevorrichtung; Mittel zum Empfangen einer Eingabe zur Kooperation mit der Prüf-VR-Vorrichtung; Mittel zum Erzeugen von Orientierungsdaten, wobei die Orientierungsdaten eine Orientierung in Bezug auf das VR-Video entsprechend der Ausgabe durch die Quellen-VR-Vorrichtung angeben; und Mittel zum Bilden einer Kommunikation, die die Orientierungsdaten zur Kommunikation an die Prüf-VR-Vorrichtung beinhaltet, wobei die Orientierungsdaten dafür konfiguriert sind, die Ausgabe eines Ansichtsfensters auf Grundlage der Orientierung, die von der Quellen-VR-Vorrichtung empfangen wird, gleichzeitig mit der Ausgabe des VR-Videos auf Grundlage einer Orientierung, die von Orientierungsverfolgungssensoren der Prüf-VR-Vorrichtung detektiert wird, zu veranlassen.
  19. Prüf-VR-Vorrichtung nach Anspruch 18, wobei die Orientierungsdaten die Orientierung als Drehung in Bezug auf eine oder mehrere Achsen beschreiben.
  20. Prüf-VR-Vorrichtung nach Anspruch 18 oder 19, wobei die Orientierungsdaten eine wahrscheinliche Position eines Kopfes eines Nutzers der Quellen-VR-Vorrichtung beschreiben und zur Steuerung bzw. Regelung der Navigation in Bezug auf das VR-Video genutzt werden.
DE102018004730.0A 2017-08-18 2018-06-13 Kooperationsbasierte Interaktion mit einem Video mit virtueller Realität Pending DE102018004730A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/680,528 US10613703B2 (en) 2017-08-18 2017-08-18 Collaborative interaction with virtual reality video
US15/680,528 2017-08-18

Publications (1)

Publication Number Publication Date
DE102018004730A1 true DE102018004730A1 (de) 2019-02-21

Family

ID=65235063

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018004730.0A Pending DE102018004730A1 (de) 2017-08-18 2018-06-13 Kooperationsbasierte Interaktion mit einem Video mit virtueller Realität

Country Status (4)

Country Link
US (1) US10613703B2 (de)
CN (1) CN109407821B (de)
AU (1) AU2018203946B2 (de)
DE (1) DE102018004730A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201710646A (zh) * 2015-09-02 2017-03-16 湯姆生特許公司 描繪大視場內容一部份時,決定導航資訊之方法和裝置,以及大視場內容描繪器
US10803642B2 (en) 2017-08-18 2020-10-13 Adobe Inc. Collaborative virtual reality anti-nausea and video streaming techniques
JP7057197B2 (ja) * 2018-04-12 2022-04-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US11297366B2 (en) 2019-05-22 2022-04-05 Google Llc Methods, systems, and media for object grouping and manipulation in immersive environments
CN112598401B (zh) * 2021-01-04 2023-05-26 北京汽车集团越野车有限公司 一种多人异地协同评审vr系统
US11195552B1 (en) * 2021-03-17 2021-12-07 International Business Machines Corporation Playback control of a video based on competency assessment
US20220407902A1 (en) * 2021-06-21 2022-12-22 Penumbra, Inc. Method And Apparatus For Real-time Data Communication in Full-Presence Immersive Platforms
US20230018560A1 (en) * 2021-07-19 2023-01-19 Lifecast Incorporated Virtual Reality Systems and Methods

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742264A (en) * 1995-01-24 1998-04-21 Matsushita Electric Industrial Co., Ltd. Head-mounted display
US9756349B2 (en) * 2002-12-10 2017-09-05 Sony Interactive Entertainment America Llc User interface, system and method for controlling a video stream
US7737965B2 (en) * 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
KR101818024B1 (ko) 2011-03-29 2018-01-12 퀄컴 인코포레이티드 각각의 사용자의 시점에 대해 공유된 디지털 인터페이스들의 렌더링을 위한 시스템
US8832233B1 (en) 2011-07-20 2014-09-09 Google Inc. Experience sharing for conveying communication status
JP2013057601A (ja) * 2011-09-08 2013-03-28 Sony Corp 電子機器および撮像装置
GB2501761A (en) 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Head mountable display
WO2014085910A1 (en) 2012-12-04 2014-06-12 Interaxon Inc. System and method for enhancing content using brain-state data
US10660542B2 (en) 2013-01-26 2020-05-26 Cianna Medical, Inc. RFID markers and systems and methods for identifying and locating them
KR102387314B1 (ko) * 2013-03-11 2022-04-14 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9645395B2 (en) 2013-03-15 2017-05-09 Mark Bolas Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
EP2983138A4 (de) * 2013-04-04 2017-02-22 Sony Corporation Anzeigesteuerungsvorrichtung, anzeigesteuerungsverfahren und programm
US20140320529A1 (en) 2013-04-26 2014-10-30 Palo Alto Research Center Incorporated View steering in a combined virtual augmented reality system
KR102233223B1 (ko) 2014-01-20 2021-03-29 소니 주식회사 화상 표시 장치 및 화상 표시 방법, 화상 출력 장치 및 화상 출력 방법과, 화상 표시 시스템
US9742995B2 (en) * 2014-03-21 2017-08-22 Microsoft Technology Licensing, Llc Receiver-controlled panoramic view video share
US9959591B2 (en) * 2014-07-31 2018-05-01 Seiko Epson Corporation Display apparatus, method for controlling display apparatus, and program
US9804669B2 (en) * 2014-11-07 2017-10-31 Eye Labs, Inc. High resolution perception of content in a wide field of view of a head-mounted display
US9407865B1 (en) 2015-01-21 2016-08-02 Microsoft Technology Licensing, Llc Shared scene mesh data synchronization
US10802783B2 (en) * 2015-05-06 2020-10-13 Haworth, Inc. Virtual workspace viewport following in collaboration systems
US20160358383A1 (en) 2015-06-05 2016-12-08 Steffen Gauglitz Systems and methods for augmented reality-based remote collaboration
US20170132845A1 (en) 2015-11-10 2017-05-11 Dirty Sky Games, LLC System and Method for Reducing Virtual Reality Simulation Sickness
CN106358036B (zh) * 2016-08-31 2018-05-08 杭州当虹科技有限公司 一种以预设视角观看虚拟现实视频的方法
CN106331732B (zh) * 2016-09-26 2019-11-12 北京疯景科技有限公司 生成、展现全景内容的方法及装置
CN106648757B (zh) * 2016-11-29 2021-02-02 维沃移动通信有限公司 一种虚拟现实终端的数据处理方法和虚拟现实终端
US10803642B2 (en) 2017-08-18 2020-10-13 Adobe Inc. Collaborative virtual reality anti-nausea and video streaming techniques

Also Published As

Publication number Publication date
CN109407821B (zh) 2023-10-27
CN109407821A (zh) 2019-03-01
AU2018203946A1 (en) 2019-03-07
US20190056848A1 (en) 2019-02-21
US10613703B2 (en) 2020-04-07
AU2018203946B2 (en) 2021-08-12

Similar Documents

Publication Publication Date Title
DE102018004721A1 (de) Kooperationsbasierte übelkeitshemmende Techniken zum Streamen von Videos mit virtueller Realität
DE102018004730A1 (de) Kooperationsbasierte Interaktion mit einem Video mit virtueller Realität
US11915670B2 (en) Systems, methods, and media for displaying interactive augmented reality presentations
US20180324229A1 (en) Systems and methods for providing expert assistance from a remote expert to a user operating an augmented reality device
Nguyen et al. CollaVR: collaborative in-headset review for VR video
DE112016004216T5 (de) Allgemeine Sphärische Erfassungsverfahren
US10043549B2 (en) Systems and methods for generation of composite video
DE102018207088A1 (de) Bildanalyse ohne marker für augmented reality
US10699428B2 (en) Volumetric depth video recording and playback
CN104469256A (zh) 沉浸式和交互式的视频会议房间环境
DE102015100930A1 (de) Steuerung von verbesserter Kommunikation zwischen entfernt befindlichen Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
DE112018006666T5 (de) Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm
US11595615B2 (en) Conference device, method of controlling conference device, and computer storage medium
US20180349367A1 (en) Systems and methods for associating virtual objects with electronic documents, and searching for a virtual object or an electronic document based on the association
DE102019218787A1 (de) Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten
US20200104030A1 (en) User interface elements for content selection in 360 video narrative presentations
DE102019005884A1 (de) Schnittstellen und Techniken zum Einpassen von 2D-Anleitungsvideos in 3D-Tutorials in der virtuellen Realität
US20190020699A1 (en) Systems and methods for sharing of audio, video and other media in a collaborative virtual environment
US20190250805A1 (en) Systems and methods for managing collaboration options that are available for virtual reality and augmented reality users
CN105979167A (zh) 视频制作方法及视频制作装置
DE102018007493A1 (de) Verfügbares Tonumstellen für Clientvorrichtungen auf einer Onlinekonferenz
DE102018106108A1 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US11527046B2 (en) Real world beacons indicating virtual locations
DE112020000573T5 (de) Anzeigen von darstellungen von umgebungen
CN117616748A (zh) 具有多种空间交互模式的视频会议系统

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: ADOBE INC., SAN JOSE, US

Free format text: FORMER OWNER: ADOBE SYSTEMS INCORPORATED, SAN JOSE, CALIF., US

R082 Change of representative

Representative=s name: MUELLER-BORE & PARTNER PATENTANWAELTE PARTG MB, DE

R012 Request for examination validly filed