DE112016002711T5 - Darstellung von virtuellem Realität-Inhalt einschliesslich Gesichtspunktübergängen um Simulatorkrankheit zu verhindern - Google Patents

Darstellung von virtuellem Realität-Inhalt einschliesslich Gesichtspunktübergängen um Simulatorkrankheit zu verhindern Download PDF

Info

Publication number
DE112016002711T5
DE112016002711T5 DE112016002711.7T DE112016002711T DE112016002711T5 DE 112016002711 T5 DE112016002711 T5 DE 112016002711T5 DE 112016002711 T DE112016002711 T DE 112016002711T DE 112016002711 T5 DE112016002711 T5 DE 112016002711T5
Authority
DE
Germany
Prior art keywords
viewpoint
displaying
highlight
display
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112016002711.7T
Other languages
English (en)
Inventor
Martin Hague SMITH
Francesco CAVALLARO
Robert Hugh TANSLEY
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112016002711T5 publication Critical patent/DE112016002711T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Bei einem allgemeinen Aspekt kann ein computerimplementiertes Verfahren das Anzeigen, auf einer Anzeige einer elektronischen Vorrichtung, eines Objekts von einem ersten virtuellen Realität-(VR)-Gesichtspunkt umfassen. Das Verfahren kann weiter das Überlagern, auf der Anzeige, eines Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts umfassen. Das Verfahren kann zudem weiter das Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt umfassen. Der zweite VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung ist endgültig und beansprucht die Priorität gegenüber der vorläufigen Anmeldung 62/175,736, eingereicht am 15. Juni 2015 und ist eine Fortsetzung der US-Patentanmeldung Nr. 15/179,246, eingereicht am 10. Juni 2016, beide mit dem Titel „VIRTUAL REALITY CONTENT PRESENTATION INCLUDING VIEWPOINT TRANSITIONS TO PREVENT SIMULATOR SICKNESS“, deren Inhalte hierin durch Bezugnahme aufgenommen werden.
  • TECHNISCHES GEBIET
  • Diese Beschreibung betrifft generell das Verwenden und die Darstellung von virtueller Realität-(VR)-Inhalt.
  • KURZDARSTELLUNG
  • Bei einem allgemeinen Aspekt kann ein computerimplementiertes Verfahren das Anzeigen, auf einer Anzeige einer elektronischen Vorrichtung, eines Objekts von einem ersten virtuellen Realität-(VR)-Gesichtspunkt umfassen. Das Verfahren kann weiter das Überlagern, auf der Anzeige, eines Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts umfassen. Das Verfahren kann zudem weiter das Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt umfassen. Der zweite VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.
  • Implementierungen können eines oder mehrere der folgenden Merkmale beinhalten. Beispielsweise kann das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das virtuelle Teleportieren vom ersten VR-Gesichtspunkt zum zweiten VR-Gesichtspunkt umfassen. Das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Ausblenden des ersten VR-Gesichtspunkts und das Einblenden des zweiten VR-Gesichtspunkts umfassen. Das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Herauslösen des ersten VR-Gesichtspunkts und das Hereinlösen des zweiten VR-Gesichtspunkts umfassen.
  • Das Objekt kann beim Anzeigen des Objekts vom ersten VR-Gesichtspunkt, beim Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt und beim Anzeigen des Objekts vom zweiten VR-Gesichtspunkt virtuell in einer festen Position in einem VR-Raum gehalten werden.
  • Das Objekt kann ein im digitalen Inhalt einer VR-Tour beinhaltetes Kunstwerk sein.
  • Das Highlight kann ein erstes Highlight sein und das computerimplementierte Verfahren kann das Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight und das Entfernen, von der Anzeige der elektronischen Vorrichtung, des ersten Highlights umfassen. Das Verfahren kann das Überlagern, auf der Anzeige, eines zweiten Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts und das Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt umfassen. Der dritte VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet. Der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, kann sich von dem Abschnitt des Objekts unterscheiden, das sich innerhalb des ersten Highlights befindet.
  • Bei einem weiteren allgemeinen Aspekt können nicht flüchtige maschinenlesbare Medien darauf gespeicherte Befehle aufweisen. Die Befehle können bei Ausführung durch einen oder mehrere Prozessoren eine Computervorrichtung veranlassen, auf einer Anzeige der Computervorrichtung ein Objekt von einem ersten virtuellen Realität-(VR)-Gesichtspunkt anzuzeigen. Die Befehle können bei Ausführung durch den einen oder die mehreren Prozessoren weiter die Computervorrichtung veranlassen, auf der Anzeige, ein Highlight innerhalb des ersten VR-Gesichtspunkts des Objekts zu überlagern, und auf der Anzeige der Computervorrichtung ohne simulierte Bewegung vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt überzugehen. Der zweite VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.
  • Implementierungen können eines oder mehrere der folgenden Merkmale beinhalten. Beispielsweise kann das Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt das virtuelle Teleportieren vom ersten VR-Gesichtspunkt zum zweiten VR-Gesichtspunkt umfassen. Das Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Ausblenden des ersten VR-Gesichtspunkts und das Einblenden des zweiten VR-Gesichtspunkts umfassen. Das Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt umfasst das gleichzeitige Herauslösen des ersten VR-Gesichtspunkts und das Hineinlösen des zweiten VR-Gesichtspunkts.
  • Das Objekt kann während des Anzeigens des Objekts vom ersten VR-Gesichtspunkt, beim Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt und beim Anzeigen des Objekts vom zweiten VR-Gesichtspunkt virtuell in einer festen Position in einem VR-Raum gehalten werden.
  • Das Highlight kann ein erstes Highlight sein. Die Befehle können bei Ausführung durch den einen oder die mehreren Prozessoren die Computervorrichtung zum Übergehen, auf der Anzeige der Computervorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight; Entfernen, von der Anzeige der Computervorrichtung, des ersten Highlights; Überlagern, auf der Anzeige der Computervorrichtung, eines zweiten Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts; und Übergehen, auf der Anzeige der Computervorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt veranlassen. Der dritte VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet. Der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, kann sich von dem Abschnitt des Objekts unterscheiden, das sich innerhalb des ersten Highlights befindet.
  • Bei einem anderen allgemeinen Aspekt kann eine Vorrichtung einen oder mehrere Prozessoren und nicht flüchtige maschinenlesbare Medien umfassen, die betriebsfähig mit dem einen oder den mehreren Prozessoren gekoppelt sind. Die nicht flüchtigen maschinenlesbaren Medien können darauf gespeicherte Befehle aufweisen, die bei Ausführung durch den einen oder die mehreren Prozessoren, darin resultieren, dass die Vorrichtung, auf einer Anzeige der Vorrichtung, ein Objekt von einem ersten virtuellen Realität-(VR)-Gesichtspunkt anzeigt; auf der Anzeige der Vorrichtung, ein Highlight innerhalb des ersten VR-Gesichtspunkts des Objekts überlagert; und, auf der Anzeige der Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt übergeht. Der zweite VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.
  • Implementierungen können eines oder mehrere der folgenden Merkmale beinhalten. Beispielsweise kann das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das virtuelle Teleportieren vom ersten VR-Gesichtspunkt zum zweiten VR-Gesichtspunkt umfassen. Das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Ausblenden des ersten VR-Gesichtspunkts und das Einblenden des zweiten VR-Gesichtspunkts umfassen. Das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Herauslösen des ersten VR-Gesichtspunkts und das Hereinlösen des zweiten VR-Gesichtspunkts umfassen.
  • Das Objekt kann beim Anzeigen des Objekts vom ersten VR-Gesichtspunkt, beim Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt und beim Anzeigen des Objekts vom zweiten VR-Gesichtspunkt virtuell in einer festen Position in einem VR-Raum gehalten werden.
  • Das Objekt ist ein im digitalen Inhalt einer VR-Tour beinhaltetes Kunstwerk.
  • Das Highlight kann ein erstes Highlight sein. Die Befehle können bei Ausführung durch den einen oder die mehreren Prozessoren darin resultieren, dass die Vorrichtung, auf der Anzeige der Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight übergeht; von der Anzeige der Vorrichtung, das erste Highlight entfernt; auf der Anzeige ein zweites Highlight innerhalb des ersten VR-Gesichtspunkts des Objekts überlagert; und, auf der Anzeige der Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt übergeht. Der dritte VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet. Der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, kann sich von dem Abschnitt des Objekts unterscheiden, das sich innerhalb des ersten Highlights befindet.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Diagramm, das ein System zum Darstellen von virtuellem Realität-(VR)-Inhalt, gemäß einer Implementierung veranschaulicht.
  • 2 ist ein Blockdiagramm, das schematisch eine VR-„Tourführung“ und einen VR-Tourinhalt veranschaulicht, der im System von 1 gemäß einer Implementierung verwendet werden kann.
  • 3 ist ein Blockdiagramm, das VR-Inhalt für eine VR-Tour schematisch veranschaulicht, der in dem VR-Inhalt von 2 gemäß einer Implementierung beinhaltet sein kann.
  • Die 4A bis 4F sind Diagramme, die VR-Gesichtspunktübergänge gemäß einer Implementierung veranschaulichen.
  • 5 ist ein Diagramm, das eine stereoskopische Ansicht des Bildes von 4C gemäß einer Implementierung veranschaulicht.
  • 6 ist ein Diagramm, das gemäß einer Implementierung einen VR-Gesichtspunkt einschließlich der dem Gesichtspunkt entsprechenden Anmerkungen veranschaulicht.
  • 7 ist ein Ablaufdiagramm, das gemäß einer Implementierung ein Verfahren zum Implementieren von VR-Gesichtspunktübergängen darstellt, wie beispielsweise die VR-Gesichtspunktübergänge der 4A bis 4F.
  • 8 zeigt ein Beispiel einer Computervorrichtung und einer mobilen Computervorrichtung, die verwendet werden können, um die hier beschriebenen Techniken zu implementieren.
  • Gleiche Bezugszeichen in den verschiedenen Zeichnungen geben gleiche Elemente an.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende Beschreibung richtet sich generell an die Verwendung von virtuellem Realität-(VR)-Inhalt (wie dreidimensionale (3D) Bilder (VR-Bilder), 3D-Videos (VR-Videos), Audio, informative Anmerkungen usw.) im Kontext des Bereitstellens der Erfahrung eines VR-Kunstmuseums oder einer Kunstgalerietour (nachstehend „Museumstour“) an den Benutzer. Es versteht sich jedoch, dass die hier beschriebenen Herangehensweisen auch in anderen Umgebungen verwendet werden können, wie beispielsweise anderen Institutionen als Museen/Galerien wie Bildungseinrichtungen, professionellen Präsentationen, Messevorführungen, Konferenzpräsentationen, z. B., um das Betrachten und eingehende Begutachten einer gegebenen Anzahl Objekt (oder von Objekten) zu ermöglichen.
  • Zum Beispiel könnten die hierin beschriebenen Techniken in einer Unterweisungsumgebung verwendet werden, wie beispielsweise einem Fachausbildungslehrgang über Automobilreparatur. Beispielsweise könnten die hierin beschriebenen Herangehensweisen zum Übergehen zwischen einem 3D-Bild eines gesamten Kraftfahrzeugmotors und Nahaufnahmen-VR-Bildern von unterschiedlichen Komponenten (Teilen, Abschnitten usw.) des Motors verwendet werden. Natürlich kann die Verwendung der hier beschriebenen Herangehensweisen auch in einer beliebigen Anzahl von anderen Umgebungen verwendet werden.
  • In dieser Offenbarung können Bilder als 2D-Bilder oder stereoskopische (3D) Bilder dargestellt sein und solche Bilder werden zur Veranschaulichung gezeigt. Bei Implementierungen können andere VR-Bilder, VR-Grafiken, VR-Videos sowie andere Elemente, Anordnungen solcher Elemente und/oder Herangehensweisen zur Darstellung eines solchen VR-Inhalts, als die hier beschriebenen verwendet werden. Bei den hierin beschriebenen Herangehensweisen sowie anderen Herangehensweisen können visueller VR-Inhalt, wie 3D-Bilder, 3D-Fotosphären, 3D-Videos usw. verwendet werden, um Nutzern eine immersive 3D-VR-Museumstourerfahrung zu bieten. Zum Beispiel kann VR-Hardware und/oder VR-Inhalt von Benutzern verwendet werden, um VR-Museumstouren an Orten zu machen, die ihnen nicht leicht zugänglich sind oder auf einem Zeitplan beruhen, der durch einen physischen Besuch (oder Besuche) nicht eingehalten werden könnte. Mithilfe der hierin beschriebenen Herangehensweisen kann ein Benutzer ohne die Notwendigkeit zu reisen (von überall auf der Welt) eine VR-Tour durch das Metropolitan Museum of Art in New York City und dann unmittelbar danach eine VR-Tour durch den Louvre in Paris machen. Bei anderen Implementierungen könnten VR-Touren (Ausstellungen) bereitgestellt werden, die auf andere Arten in Zusammenhang stehen, als auf einer spezifischen physischen Einrichtung basierend. Zum Beispiel könnte solch eine VR-Tour Arbeiten von einem einzelnen Künstler, Arbeiten einer zugehörigen Künstlervereinigung, Arbeiten eines gegebenen Genres oder Zeitraums usw. umfassen, wobei diese Arbeiten sich physisch an unterschiedlichen Einrichtungen an geografisch unterschiedlichen Orten befinden.
  • In der folgenden Beschreibung werden Systeme und Techniken zum Durchführen (Erleben usw.) von VR-Museumtouren beschrieben, die beispielhaft und zum Zwecke der Veranschaulichung bereitgestellt werden. Solch Systeme können mindestens eine Inhaltskomponente, eine Softwarekomponente und eine Hardwarekomponente umfassen. Die spezifischen verwendeten Komponenten können mindestens von der bestimmten Implementierung abhängen.
  • Bei Implementierungen kann der Inhalt für solche VR-Museumstouren Sammlungen von hochauflösenden 3D-(VR)-Digitalbildern, fotografische Panoramen, Fotosphären zusammen mit anderem digitalem Inhalt, wie Audioinhalt (Kuratorerzählung, Musik usw.), informative Anmerkungen und so weiter umfassen. Zum Beispiel können als Teil einer VR-Museumstour implementierte Bilder hochqualitative hochauflösende stereoskopische Bilder sein (z. B. Panoramen, gekachelte Bilder und/oder Fotosphären), die eine immersive 3D-Erfahrung als Teil einer VR-Museumstour bereitstellen. Zum Zwecke der Übersichtlichkeit können hiernach die Begriffe VR, 3D und stereoskopisch austauschbar verwendet sein, um visuellen Inhalt zu bezeichnen, der verwendet wird, um eine immersive visuelle VR-Erfahrung bereitzustellen. Inhalt (z. B. visueller Inhalt) für VR-Museumstouren (oder Inhalt zur Verwendung bei anderen Einstellungen) kann von jeglicher Anzahl von verfügbaren Quellen erlangt werden, wie beispielsweise ein vorhandenes Bild und/oder Videokollektionen (z. B. internetbasierte Sammlungen, Privatsammlungen, Museumskuratoren usw.), wie durch Partnerschaft mit Eigentümern von solchem Inhalt.
  • Hardware, Software und Inhaltsanordnungen, die zum Erleben einer VR-Tour (z. B. eine VR-Museumstour) verwendet werden können, sind in den 1 bis 3 gezeigt, die nachstehend weiter beschrieben werden. Die Hardwarekomponente einer Implementierung kann jedoch einen VR-Betrachter, ein Datennetzwerk (wie das Internet), eine Datenroutingvorrichtung (z. B., um eine Schnittstelle zwischen dem VR-Betrachter und dem Datennetzwerk bereitzustellen) und einen Server (z. B., um Inhalt zu speichern, der mit VR-Museumstouren verbunden ist) umfassen. Bei anderen Implementierungen kann andere Hardware verwendet werden oder sind andere Anordnungen möglich. Zum Beispiel könnte bei einer Implementierung VR-Inhalt in einem VR-Betrachter (wie einer elektronischen Vorrichtung, die in einem VR-Betrachter beinhaltet ist) beinhaltet sein. Bei solch einer Herangehensweise könnten die Networking-Komponenten (z. B. Datennetz und Router) und/oder der Server eliminiert werden.
  • Bei einer beispielhaften Implementierung kann die Softwarekomponente zum Implementieren von VR-Museumstouren einer „Tourführungs“-Anwendung für ein VR-Museum und eine Galerie sein. Bei solch einer Herangehensweise kann die Tourführungsanwendung auf VR-Inhalt zugreifen, der mit einem gegebenen Museum oder einer Galerie verbunden ist, und kann diesen VR-Inhalt als eine geführte VR-Museumstour darstellen, wie beispielsweise eine Tour eines Museums, die aus einer Benutzerschnittstelle ausgewählt ist (die z. B. im VR-Inhalt beinhaltet ist) und mit einem VR-Betrachter dargestellt werden kann, der die Tourführungsanwendungssoftware ausführt.
  • Abhängig von der Implementierung kann eine VR-Tour eines gegebenen Museums eine vollständig „geführte Tour“ sein, wobei ein Betrachter die Geschwindigkeit der Tour unter Verwendung einer Eingabevorrichtung auf dem VR-Betrachter steuern kann, um sich von einem kuratierten Abschnitt der Tour zum nächsten zu bewegen. Bei anderen Implementierungen kann eine VR-Tour eines Museums eine „selbstgeführte“ Tour sein, wobei ein Benutzer ein ausgewähltes Museum in einem VR-Raum (z. B. unter Verwendung des VR-Inhalts, der mit dem Museum verbunden ist) erforschen und Arbeiten auswählen kann, die er ansehen möchte. Wenn eine Arbeit ausgewählt ist, kann die Tourführungsanwendung dann ein hochauflösendes Bild der Arbeit, Kuratorerzählung über die Arbeit und/oder textliche Anmerkungen über die Arbeit darstellen. Die Tourführungsanwendung kann auch eine Anzahl an Gesichtspunktübergängen unter Verwendung der hierin beschriebenen Herangehensweisen bereitstellen, sodass der Benutzer die ausgewählte Arbeit näher begutachten kann. Die Darstellung der Gesichtspunktübergänge kann vorbestimmt sein oder kann als Reaktion auf eine Auswahl des spezifischen Bereichs einer betrachteten Arbeit ausgeführt werden. Bei anderen Implementierungen kann eine VR-Museumstour eine Kombination aus kuratorgeführt und selbstgeführt sein.
  • 1 ist ein Diagramm, das ein System 100 zum Implementieren (Vornehmen, Erleben usw.) von VR-Museumstouren (oder anderem VR-Inhalt) gemäß einer Implementierung veranschaulicht. Wie gezeigt in 1 umfasst das System 100 mehrere VR-Betrachter 110, die verwendet werden können, um VR-Museumstourinhalt anzusehen. Während zwei VR-Betrachter 110 in 1 gezeigt sind, können bei anderen Implementierungen ein einzelner VR-Betrachter 110 oder zusätzliche VR-Betrachter 110 verwendet werden. Weiter könnten die VR-Betrachter 110 von mehreren Benutzern verwendet werden, um die gleiche VR-Museumstour gleichzeitig vorzunehmen, oder um unterschiedliche VR-Museumstouren vorzunehmen oder andere Arten von Touren, Ausstellungen und/oder Präsentationen anzusehen. Zum Zwecke der Übersichtlichkeit nimmt die nachfolgende Beschreibung von 1 auf einen einzelnen VR-Betrachter 110 Bezug.
  • Das System 100 kann auch einen Router 120 umfassen, der verwendet wird, um Datenverbindungen zwischen dem VR-Betrachter 110 und einem Netzwerk 130 (z. B. das Internet oder ein anderes Datennetz wie ein lokales Netzwerk) und den Servern 140 bereitzustellen, die betriebsfähig mit dem Netzwerk 130 verbunden sind. Die Server 140 können VR-Inhalt speichern, der mit VR-Museumstouren, wie dem hierin beschriebenen Inhalt verbunden ist. Während in 1 mehrere Server 140 gezeigt sind, kann in anderen Anordnungen ein einzelner Server 140 oder können zusätzliche Server 140 verwendet werden.
  • Bei einigen Implementierungen kann der VR-Inhalt für VR-Museumstouren direkt auf den VR-Betrachter 110 geladen werden (z. B. wie durch Herunterladen des VR-Inhaltes von einem oder mehreren der Server 140 über das Netzwerk 130 und den Router 120. Bei solch einer Herangehensweise kann der VR-Betrachter 110 verwendet werden, um eine VR-Museumstour (oder anderer heruntergeladener VR-Inhalt) zu erfahren, ohne „online“ zu sein (z. B. mit dem Router 120, dem Netzwerk 130 und einem oder mehreren von den Servern 140 verbunden zu sein).
  • Während die Datenverbindungen in 1 als drahtlose Verbindungen veranschaulicht sind, können verdrahtete Verbindungen auch verwendet werden. Bei anderen Implementierungen könnten ein oder mehrere von den Servern 140 als ein Hotspot des drahtlosen Netzwerkes arbeiten. Bei solch einer Herangehensweise könnte der Router 120 und das Netzwerk 130 ausgelassen werden und der VR-Betrachter 110 könnte direkt mit den Servern 140 verbunden sein. Bei noch weiteren Implementierungen könnte das System 100 als einige Beispiele andere Daten und/oder Netzwerkvorrichtungen wie ein Modem umfassen, um Internet- (oder ein anderes Netzwerk)-Konnektivität und/oder andere Arten von Datenspeichervorrichtungen bereitzustellen, um VR-Inhalt zu speichern.
  • Bei einer Implementierung kann der VR-Betrachter 110 als eine einzelne, integrierte Vorrichtung implementiert sein. Der VR-Betrachter 110 kann beispielsweise eine elektronische Vorrichtung umfassen (z. B. Smartphone, Tablet usw.), die in eine Reihe von VR-Brillen integriert (z. B. fest eingebaut) ist. Bei solch einer Implementierung müsste die elektronische Vorrichtung nicht in den VR-Betrachter 110 eingesetzt und daraus entfernt werden, was die Einrichtzeit reduziert. Bei anderen Implementierungen kann die elektronische Vorrichtung des VR-Betrachters 110 von der VR-Brille des VR-Betrachters 110 trennbar sein (z. B. einsetzbar in und entfernbar von), wie beispielsweise unter Verwendung einer Klappe, Tür oder dergleichen, die in der VR-Brille beinhaltet ist. Bei solch einer Herangehensweise kann die elektronische Vorrichtung des VR-Betrachters 110 in die VR-Brille eingesetzt sein, wenn eine VR-Museumstour gestartet wird, und dann von den VR-Betrachtern 110 nach dem Abschließen der VR-Museumstour entfernt werden (z. B., um die elektronischen Vorrichtungen aufzuladen, sie für andere Zwecke zu verwenden usw.). Der VR-Betrachter 110 (integriert oder trennbar) kann VR-Optik (z. B. asphärische Linsen) in seiner VR-Brille umfassen und die VR-Brille kann ein Gehäuse aufweisen, das aus jedem geeigneten Material (z. B. Kunststoff, Gummi, Karton oder anderes Material) hergestellt ist.
  • Während dies in 1 nicht gezeigt ist, kann das System 100 auch ein oder mehrere Audiosysteme umfassen, die verwendet werden können, um Audioinhalt (z. B. Museumskuratorerzählung) während einer VR-Museumstour bereitzustellen. Solche Audiosysteme können einen Lautsprecher umfassen, der drahtlos (z. B. unter Verwendung einer Bluetooth-Verbindung oder einer anderen drahtlosen Verbindung) mit dem VR-Betrachter 110 (z. B. eine elektronische Vorrichtung des VR-Betrachters 110) verbunden ist. Bei anderen Implementierungen kann der VR-Betrachter 110 einen integrierten (internen) Lautsprecher oder ein Audioheadset (Kopfhörer) umfassen.
  • 2 ist ein Blockdiagramm, das schematisch eine VR-„Tourführung“ (Tourführung) 210 und VR-Tourinhalt (Tourinhalt) 220 veranschaulicht, die bzw. der im System von 1 verwendet werden kann, um VR-Museumstouren gemäß einer Implementierung zu implementieren (darzustellen, zu erfahren usw.). Zum Zweck der Veranschaulichung wird 2 unter Bezugnahme auf das System 100 von 1 beschrieben. Bei anderen Implementierungen kann die Tourführung 210 und der Tourinhalt 220 in Verbindung mit Systemen mit anderen Konfigurationen verwendet werden und/oder zum Darstellen jedes geeigneten VR-Inhalts.
  • Die Tourführung 210 kann konfiguriert sein, auf den Tourinhalt 220 für ein gegebenes Museum (z. B. ein Museum, das aus einer Benutzerschnittstelle ausgewählt ist) zuzugreifen und den Tourinhalt 220 als eine VR-Museumstour unter Verwendung des VR-Betrachters 110 darzustellen. Die Tourführung 210 kann auf eine Anzahl an Arten implementiert werden. Beispielsweise kann die Tourführung 210 als eine Anwendung implementiert werden, die auf einer elektronischen Vorrichtung des VR-Betrachters 110 installiert ist und darauf läuft (z. B. durch einen Prozessor ausgeführt wird). Bei einer anderen Implementierung kann die Tourführung 210 eine webbasierte Anwendung sein, auf die von einem Web-basierten Portal (z. B. wie ein VR-Museumstourportal) zugegriffen werden kann und dort ausgeführt wird. Bei anderen Implementierungen kann die Tourführung 210 auf andere Arten implementiert werden.
  • Es kann zum Beispiel eine Tourführungsanwendung 210, die für eine bestimmte Einrichtung markengeschützt ist und Touren für diese Einrichtung hostet, bereitgestellt werden. Bei solch einer Herangehensweise kann eine Reihe von Touren für die entsprechende Einrichtung angezeigt werden, wenn die Tourführungsanwendung ausgeführt wird. Die Anzahl an und der Inhalt der Touren kann von der Einrichtung (z. B. von einem Kurator) bestimmt werden und kann auf einem Inhaltsserver (z. B. den Servern 140) wie gewünscht aktualisiert werden. Solch ein Inhalt kann dann auf einen VR-Betrachter 110 heruntergeladen werden, um solche Touren zu erfahren. Als einige beispielhafte Tourmöglichkeiten könnte ein Kurator eine detaillierte begleitete Tour eines berühmten Kunstwerks erstellen, eine Tour einschließlich eines Walk-Through einer Galerie mit akustischer Führung, Arbeiten eines spezifischen Künstlers (der sich an physisch unterschiedlichen geografischen Orten befinden kann) und/oder ein detaillierter Überblick der besten Ausstellungen von einer gegebenen Einrichtung, einem Künstler, Genre oder Zeitraum.
  • Wie gezeigt in 2 kann der Tourinhalt 220 VR-Tourinhalt für mehrere Museen und Kunstgalerien umfassen. Zum Beispiel kann der Tourinhalt 220 VR-Inhalt für eine VR-Museumstour des Louvre 222, eine VR-Museumstour des Metropolitan Museum of Art 224, eine VR-Museumstour der Uffizien-Galerie 226 und eine VR-Museumstour der Nationalgalerie 228 umfassen. Der Tourinhalt 220 ist beispielhaft gezeigt und anderer VR-Inhalt kann beinhaltet sein und/oder die spezifischen gezeigten Museen und Galerien in 2 können ausgelassen werden. Der beispielhafte Inhalt für ein gegebenes Museum oder eine Galerie (die Arbeiten eines physischen Museums oder einer Galerie sein können oder Arbeiten eines rein virtuellen Museums oder einer Galerie) ist in 3 veranschaulicht und wird nachfolgend beschrieben. Bei einer beispielhaften Implementierung können die individuellen Touren (z. B. Museen, Galerien usw.), die im Tourinhalt 220 beinhaltet sind, in einer Benutzerschnittstelle dargestellt werden (z. B. auf einer Internetseite), von der eine gewünschte VR-Tour ausgewählt werden kann.
  • 3 ist ein Blockdiagramm, das VR-Inhalt für eine VR-Museum/Galerie-Tour (VR-Tour) 300 veranschaulicht, die in den VR-Museen/Galerien 220 von 2 gemäß einer Implementierung beinhaltet sein kann. Beispielsweise kann die VR-Tour 300 verwendet werden, um eine VR-Tour für eine gegebene der VR-Museen/Galerien 220, die in 2 gezeigt sind, zu implementieren. Zum Zwecke der Veranschaulichung wird 3 unter Bezugnahme auf die 1 und 2 beschrieben. Bei anderen Implementierungen können andere Konfigurationen und Anordnungen verwendet sein.
  • Wie veranschaulicht in 3 kann die VR-Tour 300 VR-Bilder/Videos 310, Audioinhalt 320 und Textinhalt 330 umfassen. Wie weiter veranschaulicht in 3 können die VR-Bilder/Videos 310 Museum-/Galeriebilder 312, Kunstwerkbilder 314 und Kartenbilder 360 umfassen. Die Museum-/Galeriebilder 312 können VR-Bilder (Fotosphären, Panoramen, Videos, gekachelte Bilder usw.) des Äußeren und/oder Inneren eines Museums oder einer Galerie sein, die das Thema der VR-Tour 300 ist. Die Kunstwerkbilder 314 können VR-Bilder (Fotosphären, Panoramen, Videos, gekachelte Bilder usw.) von Arbeiten, die im Museum oder der Galerie (physisch oder virtuell) ausgestellt werden, die das Thema der VR-Tour 300 ist. Die Kartenbilder 316 können VR-Bilder (Fotosphären, Panoramen, Videos, gekachelte Bilder usw.) von Karten sein, die mit dem Museum oder der Galerie verbunden sind, die das Thema der VR-Tour 300 ist, wie beispielsweise ein Raumplan (von dem ein Bereich für eine Tour ausgewählt werden kann), eine Karte, die den Ort des Museums oder der Galerie zeigt, usw.
  • Die VR-Bilder/Videos 310 können von der Tourführung 210 verwendet werden, um eine kuratierte (geführte) VR-Tour zu implementieren und/oder eine unabhängige Erkundung (innerhalb eines verfügbaren VR-Raums, der den VR-Bildern/Videos 310 entspricht) von einem zugehörigen Museum oder einer Galerie zu ermöglichen. Die Tourführung 210 kann auch Audioinhalt 320 (z. B. Kuratorerzählung) und Textinhalt 330 (z. B. informative Anmerkungen usw.) in Verbindung mit den Bildern/Videos 310 verwenden, um die VR-Tour 300 auf dem VR-Betrachter 110 darzustellen. Bei einer Implementierung könnte beispielsweise eine VR-Tour 300 außerhalb eines entsprechenden Museums mit Kuratorerzählung (Audioinhalt 320) und/oder einer Anzeige von informativen Anmerkungen (Textinhalt) über das Museum beginnen, wobei ein Betrachter fähig ist, die Bilder/das Video 310, das im VR-Raum angezeigt wird, zu begutachten (zu erforschen) (z. B. durch Bewegen seines Kopfes, was durch die elektronische Vorrichtung unter Verwendung eines Beschleunigungsmessers detektiert werden kann).
  • Die VR-Tour könnte dann (z. B. als eine kuratorgeführte oder selbstgeführte Tour) innerhalb des Museums und zu einzelnen Arbeiten, die im Museum oder der Galerie „ausgestellt“ sind, die der VR-Tour 300 entsprechen, fortfahren. Relevanter Audioinhalt 320 und Textinhalt 330 (bestimmt durch einen Ort mit der VR-Tour 300) kann durch die Tourführung 210 als Teil der VR-Tour 300 dargestellt werden. Die spezifische Sortierung und Auswahl des Inhalts, der für eine gegebene VR-Tour 300 dargestellt wird, können basierend auf der Implementierung variieren. Wie vorstehend beschrieben, kann eine Eingabevorrichtung des VR-Betrachters 110 verwendet werden, um die Geschwindigkeit einer geführten Tour zu steuern (z. B. zum Fortschreiten von einem kuratierten Abschnitt zu einem nächsten kuratierten Abschnitt) und/oder um eine Auswahl innerhalb der VR-Tour 300 vorzunehmen, um eine selbstgeführte Tour zu erfahren.
  • Die 4A bis 4F sind Diagramme, die VR-Gesichtspunktübergänge gemäß einer Implementierung veranschaulichen. Zum Zwecke dieser Offenbarung werden die 4A bis 4F unter Bezugnahme auf die 1 bis 3 wie jeweils anwendbar beschrieben. Die durch die 4A bis 4F veranschaulichten Gesichtspunktübergänge können von der Tourführung 210 verwendet werden (durch diese implementiert werden), wenn ein Kunstwerk von den Bildern 314 auf dem Betrachter 110 während der Darstellung der VR-Tour 300 dargestellt wird.
  • Die Herangehensweise zum Übergehen Lassen von VR-Gesichtspunkten (z. B. eines Kunstwerks), die in den 4A bis 4F gezeigt ist, kann Bewegungskrankheit verhindern, da eine Bewegung zwischen VR-Gesichtspunkten für den Benutzer nicht offensichtlich (z. B. verborgen) ist. Die in den 4A bis 4F veranschaulichte und hierin beschriebene Herangehensweise ermöglicht, ein gesamtes Objekt (z. B. ein Kunstwerk) anzusehen sowie die eingehende Begutachtung von einem oder mehreren Abschnitten dieses Objekts. Indem ein Betrachter die hierin beschriebenen Herangehensweisen verwendet, um eine immersive VR-Erfahrung bereitzustellen, kann dieser die Wahrnehmung haben, vor einem Objekt (z. B. einem Kunstwerk) zu schweben, egal ob er das Objekt als Ganzes oder einen spezifischen Abschnitt (z. B. eine Nahansicht) des Objekts betrachtet.
  • In den Gesichtspunktübergängen von 4A bis 4F kann das begutachtete Objekt (z. B. ein Kunstwerk) an einem festen Ort im VR-Raum gehalten werden, der verwendet wird, um das VR-Bild (oder Bilder wie beispielsweise für ein gekacheltes Bild) des Objekts anzuzeigen, während ein Betrachter von einem Gesichtspunkt zu einem anderen (z. B. unterschiedliche Nahansichten von unterschiedlichen Abschnitten des begutachteten Objekts) „teleportiert“ (z. B. bewegt, virtuell bewegt, virtuell teleportiert) werden kann, ohne virtuelle Bewegung, die mit diesen Übergängen verbunden und für den Betrachter im VR-Raum wahrnehmbar ist. Das Durchführen solcher teleportierter Gesichtspunktübergänge, da die Bewegung von einem Gesichtspunkt zu einem anderen vor einem Betrachter verborgen wird, kann Simulator-(Bewegungs-)-Krankheit verhindern, die auftreten könnte, wenn diese virtuelle Bewegung dem Betrachter sichtbar gemacht wird (wie beispielsweise unter Verwendung von Fly-in- und/oder Fly-out-Animation). Solche Gesichtspunktübergänge können das Darstellen (Bereitstellen) von einer oder mehreren Zwischenkontextansichten, die einem Betrachter anzeigen, wo sein Gesichtspunkt war (z. B., welchen Abschnitt der Arbeit er angesehen hat, oder von wo er „teleportiert“ wurde) und/oder wohin sein Gesichtspunkt geht (z. B., welchen Abschnitt der Arbeit er dabei ist, anzusehen, oder wohin er „teleportiert“ wird).
  • Im Beispiel der 4A bis 4F werden Bilder von Da Vincis Mona Lisa dargestellt. Diese Bilder werden zum Zwecke der Veranschaulichung angegeben und andere Objekte können unter Verwendung der durch die 4A bis 4F veranschaulichten Gesichtspunktübergänge-Herangehensweise betrachtet (dargestellt, begutachtet usw.) werden. Wie gezeigt in 4A kann ein VR-Bild 400 der Mona Lisa unter Verwendung des VR-Betrachters 110 präsentiert werden. Das Bild 400 kann ein digitales VR-Bild mit sehr hoher Auflösung sein (z. B. ein Gigapixelbild), wie beispielsweise ein gekacheltes hochauflösendes Bild der Arbeit der Mona Lisa. Wie bereits erwähnt, kann im VR-Raum ein Betrachter die Wahrnehmung des Schwebens vor dem Bild 400 aufweisen. Wie gezeigt in 4B kann ein Highlight (Frame, Highlight-Frame usw.) 410 auf dem Bild 400 überlagert werden, wobei das Highlight 410 als ein geführter Teil der VR-Tour 300 hinzugefügt werden kann, um eine Aufmerksamkeit eines Betrachters auf diesen Abschnitt des Objekts zu lenken, oder es könnte als Reaktion auf eine Auswahl hinzugefügt werden, die vom Betrachter mit dem VR-Betrachter 110 ausgeführt wird (z. B. ein Eingabemechanismus des VR-Betrachters 110).
  • Bei diesem Beispiel kann man den VR-Gesichtspunkt von 4B (Bild 400 mit dem Highlight 410) zum VR-Gesichtspunkt von 4C übergehen lassen (Bild 420, das die Region der Mona Lisa innerhalb des Highlights 410 in 4B ist), indem vom Gesichtspunkt von 4B zum Gesichtspunkt von 4C „teleportiert“ wird. Solch eine Teleportation zwischen den Gesichtspunkten von 4B und 4C kann erreicht werden, indem im VR-Raum der VR-Tour 300 gleichzeitig der Gesichtspunkt von 4B herausgelöst (z. B. zu Schwarz ausblenden) und der Gesichtspunkt von 4C hereingelöst (z. B. Einblenden) wird. Während die Änderung im Gesichtspunkt zwischen 4B und 4C mit einer virtuellen Bewegung (Kamerabewegung) vom Gesichtspunkt des Bildes 410 in 4B zum Gesichtspunkt des Bildes 420 von 4C entspricht, was in Simulatorkrankheit resultieren könnte, wenn es für einen Betrachter erkennbar ist, macht die Verwendung des vorstehend beschriebenen Gesichtspunktteleportationsübergangs eine solche Bewegung für einen Betrachter nicht wahrnehmbar (z. B. verborgen) und verhindert deshalb Simulatorkrankheit infolge dieser Bewegung.
  • Die 4C bis 4F veranschaulichen Gesichtspunktübergänge (unter Verwendung der vorstehend beschriebenen Herangehensweisen) zum Übergehen vom Close-Up-VR-Gesichtspunkt des Bildes 420 gezeigt in 4C zum Close-Up-VR-Gesichtspunkt des Bildes 430 gezeigt in 4F, wo das Bild 430 eine Nahansicht eines unterschiedlichen Abschnitts der Mona Lisas ist als das Bild 420. Der Übergang zwischen den Gesichtspunkten der 4C und 4F kann Zwischen-(Kontext-)-Übergänge (Ansichten) umfassen, die einem Betrachter der VR-Tour 300 veranschaulichen, wo er an dem Objekt betrachtet (4D) oder von wo er teleportiert (übergegangen) wurde, und wo an dem Objekt er als Nächstes betrachtet (4E) oder wohin er teleportiert (übergegangen) wird (4F).
  • Der Übergang zwischen den Gesichtspunkten von 4C und 4F mit zwei Zwischenkontextübergängen kann wie folgt erreicht werden. Erstens kann ein Übergang (eine Teleportation) zwischen dem Gesichtspunkt von 4C und 4D ausgeführt werden, indem gleichzeitig der Gesichtspunkt von 4C herausgelöst (z. B. zu Schwarz ausblenden) und der Gesichtspunkt von 4D hereingelöst (z. B. Einblenden) wird. Bei diesem Beispiel kann der Gesichtspunkt in 4D der gleiche Gesichtspunkt wie gezeigt in 4B sein einschließlich des Highlights 410. Dieser Übergang zwischen den Gesichtspunkten von 4C und 4D stellt einem Betrachter der VR-Tour 300 den Kontext bereit, wo (der Bereich eines begutachteten Objekts) er betrachtet hat (z. B. das Lächeln von Mona Lisa), bevor er zurück zum Gesichtspunkt von 4D (z. B. die gesamte Arbeit von Mona Lisa) hinaus teleportiert wurde.
  • Ein nächster Schritt in einem Übergang zwischen dem Gesichtspunkt von 4C und 4F mit Zwischenkontextübergängen (Ansichten) ist in 4E gezeigt, wo das Highlight 410 von seinem Ort in 4D (und 4B) zu einem unterschiedlichen Ort auf dem Bild 410 (z. B. die Hände von Mona Lisa) bewegt wird, um an einen Betrachter Kontext dazu bereitzustellen, wohin an dem Objekt (Arbeit von Mona Lisa) er teleportiert (übergegangen) wird, wie veranschaulicht in 4E. Um den Übergang zwischen dem Gesichtspunkt von 4C und 4F von diesem Beispiel abzuschließen, kann ein Übergang (eine Teleportation) zwischen dem Gesichtspunkt von 4E und 4F gleichzeitig ausgeführt werden, indem gleichzeitig der Gesichtspunkt von 4E herausgelöst (z. B. zu Schwarz ausblenden) und der Gesichtspunkt von 4F hereingelöst (z. B. Einblenden) wird (um z. B. eine Ansicht vom VR-Gesichtspunkt von 4E zum VR-Gesichtspunkt von 4F zu teleportieren). Solche Herangehensweisen ermöglichen, eine immersive VR-Museumstourerfahrung bereitzustellen (oder anderen VR-Inhalt zu erfahren), wo Gesichtspunktübergänge zwischen Großansichten und Nahansichten der Kunstwerke (oder anderer Objekte) ausgeführt werden können, ohne dass virtuelle Bewegung, die mit diesen Gesichtspunktübergängen verbunden ist, einem Betrachter offensichtlich ist, und daher Simulatorkrankheit, die durch solch eine virtuelle Bewegung bewirkt werden kann, verhindert wird.
  • 5 ist ein Diagramm, das den stereoskopischen VR-Gesichtspunkt 500 des Bildes 420 von 4C gemäß einer Implementierung veranschaulicht. Die stereoskopische Ansicht 500 kann in einem VR-Betrachter wie dem VR-Betrachter 110 von 1 präsentiert werden. Beim Betrachten durch die asphärischen Linsen des VR-Betrachters 110 kann das Bild 420 in der stereoskopischen Ansicht 500 als ein einzelnes 3D-Bild erscheinen, um einem Betrachter zu ermöglichen, eine immersive VR-Erfahrung zu machen, indem er ein Objekt, in diesem Fall die Mona Lisa, begutachtet.
  • 6 ist ein Diagramm, das einen VR-Gesichtspunkt 600 des Bildes 420 veranschaulicht, der beim Bereitstellen einer VR-Museumstour gemäß einer Implementierung verwendet werden kann. Wie gezeigt in 6 kann der Gesichtspunkt 600 Anmerkungen 610 umfassen, die neben dem Bild 420 angeordnet sind. Die Anmerkungen 610 können informative Informationen (z. B. Kuratoranmerkungen, Historie usw.) über das Bild 420 umfassen. Abhängig von der Implementierung können die Anmerkungen 610 allein oder in Kombination mit Audioerzählungsinhalt einer VR-Museumstour verwendet werden. Bei anderen Implementierungen könnten die Anmerkungen 610 und das Bild 420 in unterschiedlicher Art und Weise angeordnet sein. Zum Beispiel könnten die Anmerkungen auf dem Bild 420 überlagert werden (könnten z. B. in Koordination mit kuratiertem Audioinhalt ein- ausgeblendet werden). Noch weitere Herangehensweisen für die Verwendung von solchen Anmerkungen sind möglich.
  • 7 ist ein Ablaufdiagramm, das gemäß einer Implementierung ein Verfahren 700 zum Implementieren von VR-Gesichtspunktübergängen veranschaulicht, wie beispielsweise die in den 4A bis 4F veranschaulichten VR-Gesichtspunktübergänge. Das Verfahren 700 kann im System 100 unter Verwendung der hierin beschriebenen Herangehensweisen, wie beispielsweise die Verwendung der VR-Tourführung von 2 und/oder des VR-Tourinhalts von 3, als einige Beispiele implementiert werden. Zum Zweck der Veranschaulichung wird das Verfahren 700 unter weiterer Bezugnahme auf die weiteren Zeichnungen wie jeweils anwendbar beschrieben.
  • Wie gezeigt in 7 kann das Verfahren 700 das Anzeigen z. B. auf einer Anzeige einer elektronischen Vorrichtung (dem VR-Betrachter 110, einer Computervorrichtung und so weiter) eines Objekts (z. B. ein VR-Bild eines Objekts) von einem ersten VR-Gesichtspunkt wie einem VR-Gesichtspunkt, wie er in 4A gezeigt ist, umfassen. Bei Block 720 kann das Verfahren 700 das Überlagern, auf der Anzeige, eines ersten Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts, wie beispielsweise im in 4B gezeigten Gesichtspunkt, umfassen. Bei Block 730 kann das Verfahren 700 das Übergehen, auf der Anzeige ohne simulierte Bewegung (z. B. virtuell Teleportieren, Hineinlösen/Herauslösen, Enblenden/Ausblenden usw.), vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem ersten Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt umfassen. Der zweite VR-Gesichtspunkt kann eine Nah-(vergrößerte)-Ansicht eines Abschnitts des Objekts sein, das sich innerhalb des ersten Highlights im ersten VR-Gesichtspunkt befindet.
  • Bei Block 740 kann das Verfahren 700 das Übergehen, auf der Anzeige (von einer elektronischen Vorrichtung) ohne simulierte Bewegung (z. B. virtuell Teleportieren, Hinein-/Herauslösen, Ein-/Ausblenden usw.), vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight, wie beispielsweise dem VR-Gesichtspunkt von 4D, umfassen, welcher wie bereits erwähnt der gleiche vom VR-Gesichtspunkt von 4B sein kann. Bei Block 750 kann das Verfahren 700 weiter das Entfernen des ersten Highlights und bei Block 760 das Überlagern eines zweiten Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts, wie im Gesichtspunkt gezeigt in 4E umfassen. Bei Block 770 kann das Verfahren 700 das Übergehen, ohne virtuelle Bewegung (z. B. virtuell Teleportieren, Hinein-/Herauslösen, Ein-/Ausblenden usw.), vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt umfassen. Der dritte VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet. Wie hier beschrieben und in den 4A bis 4F veranschaulicht, kann sich der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, von dem Abschnitt des Objekts unterscheiden, der sich innerhalb des ersten Highlights befindet.
  • Bei einem allgemeinen Aspekt kann ein computerimplementiertes Verfahren das Anzeigen, auf einer Anzeige einer elektronischen Vorrichtung, eines Objekts von einem ersten virtuellen Realität-(VR)-Gesichtspunkt umfassen. Das Verfahren kann weiter das Überlagern, auf der Anzeige, eines Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts umfassen. Das Verfahren kann zudem weiter das Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt umfassen. Der zweite VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.
  • Implementierungen können eines oder mehrere der folgenden Merkmale beinhalten. Beispielsweise kann das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das virtuelle Teleportieren vom ersten VR-Gesichtspunkt zum zweiten VR-Gesichtspunkt umfassen. Das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Ausblenden des ersten VR-Gesichtspunkts und das Einblenden des zweiten VR-Gesichtspunkts umfassen. Das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Herauslösen des ersten VR-Gesichtspunkts und das Hereinlösen des zweiten VR-Gesichtspunkts umfassen.
  • Das Objekt kann beim Anzeigen des Objekts vom ersten VR-Gesichtspunkt, beim Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt und beim Anzeigen des Objekts vom zweiten VR-Gesichtspunkt virtuell in einer festen Position in einem VR-Raum gehalten werden.
  • Das Objekt kann ein im digitalen Inhalt einer VR-Tour beinhaltetes Kunstwerk sein.
  • Das Highlight kann ein erstes Highlight sein und das computerimplementierte Verfahren kann das Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight und das Entfernen, von der Anzeige der elektronischen Vorrichtung, des ersten Highlights umfassen. Das Verfahren kann das Überlagern, auf der Anzeige, eines zweiten Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts und das Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt umfassen. Der dritte VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet. Der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, kann sich von dem Abschnitt des Objekts unterscheiden, das sich innerhalb des ersten Highlights befindet.
  • Bei einem weiteren allgemeinen Aspekt können nicht flüchtige maschinenlesbare Medien darauf gespeicherte Befehle aufweisen. Die Befehle können bei Ausführung durch einen oder mehrere Prozessoren eine Computervorrichtung veranlassen, auf einer Anzeige der Computervorrichtung ein Objekt von einem ersten virtuellen Realität-(VR)-Gesichtspunkt anzuzeigen. Die Befehle können bei Ausführung durch den einen oder die mehreren Prozessoren weiter die Computervorrichtung veranlassen, auf der Anzeige, ein Highlight innerhalb des ersten VR-Gesichtspunkts des Objekts zu überlagern, und auf der Anzeige der Computervorrichtung ohne simulierte Bewegung vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt überzugehen. Der zweite VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.
  • Implementierungen können eines oder mehrere der folgenden Merkmale beinhalten. Beispielsweise kann das Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt das virtuelle Teleportieren vom ersten VR-Gesichtspunkt zum zweiten VR-Gesichtspunkt umfassen. Das Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Ausblenden des ersten VR-Gesichtspunkts und das Einblenden des zweiten VR-Gesichtspunkts umfassen. Das Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt umfasst das gleichzeitige Herauslösen des ersten VR-Gesichtspunkts und das Hineinlösen des zweiten VR-Gesichtspunkts.
  • Das Objekt kann während des Anzeigens des Objekts vom ersten VR-Gesichtspunkt, beim Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt und beim Anzeigen des Objekts vom zweiten VR-Gesichtspunkt virtuell in einer festen Position in einem VR-Raum gehalten werden.
  • Das Highlight kann ein erstes Highlight sein. Die Befehle können bei Ausführung durch den einen oder die mehreren Prozessoren die Computervorrichtung zum Übergehen, auf der Anzeige der Computervorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight; Entfernen, von der Anzeige der Computervorrichtung, des ersten Highlights; Überlagern, auf der Anzeige der Computervorrichtung, eines zweiten Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts; und Übergehen, auf der Anzeige der Computervorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt veranlassen. Der dritte VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet. Der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, kann sich von dem Abschnitt des Objekts unterscheiden, das sich innerhalb des ersten Highlights befindet.
  • Bei einem anderen allgemeinen Aspekt kann eine Vorrichtung einen oder mehrere Prozessoren und nicht flüchtige maschinenlesbare Medien umfassen, die betriebsfähig mit dem einen oder den mehreren Prozessoren gekoppelt sind. Die nicht flüchtigen maschinenlesbaren Medien können darauf gespeicherte Befehle aufweisen, die bei Ausführung durch den einen oder die mehreren Prozessoren, darin resultieren, dass die Vorrichtung, auf einer Anzeige der Vorrichtung, ein Objekt von einem ersten virtuellen Realität-(VR)-Gesichtspunkt anzeigt; auf der Anzeige der Vorrichtung, ein Highlight innerhalb des ersten VR-Gesichtspunkts des Objekts überlagert; und, auf der Anzeige der Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt übergeht. Der zweite VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.
  • Implementierungen können eines oder mehrere der folgenden Merkmale beinhalten. Beispielsweise kann das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das virtuelle Teleportieren vom ersten VR-Gesichtspunkt zum zweiten VR-Gesichtspunkt umfassen. Das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Ausblenden des ersten VR-Gesichtspunkts und das Einblenden des zweiten VR-Gesichtspunkts umfassen. Das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt kann das gleichzeitige Herauslösen des ersten VR-Gesichtspunkts und das Hereinlösen des zweiten VR-Gesichtspunkts umfassen.
  • Das Objekt kann beim Anzeigen des Objekts vom ersten VR-Gesichtspunkt, beim Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt und beim Anzeigen des Objekts vom zweiten VR-Gesichtspunkt virtuell in einer festen Position in einem VR-Raum gehalten werden.
  • Das Objekt ist ein im digitalen Inhalt einer VR-Tour beinhaltetes Kunstwerk.
  • Das Highlight kann ein erstes Highlight sein. Die Befehle können bei Ausführung durch den einen oder die mehreren Prozessoren darin resultieren, dass die Vorrichtung, auf der Anzeige der Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight übergeht; von der Anzeige der Vorrichtung, das erste Highlight entfernt; auf der Anzeige ein zweites Highlight innerhalb des ersten VR-Gesichtspunkts des Objekts überlagert; und, auf der Anzeige der Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt übergeht. Der dritte VR-Gesichtspunkt kann eine Nahansicht eines Abschnitts des Objekts sein, das sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet. Der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, kann sich von dem Abschnitt des Objekts unterscheiden, das sich innerhalb des ersten Highlights befindet.
  • 8 zeigt ein Beispiel einer generischen Computervorrichtung 800 und einer generischen mobilen Computervorrichtung 850, die mit den hier beschriebenen Techniken verwendet werden können. Die Computervorrichtung 800 soll verschiedene Formen von digitalen Computern wie Laptops, Desktops, Arbeitsstationen, Personal Digital Assistants, Fernseher, Server, Blade-Server, Mainframes und andere geeignete Computer darstellen. Die Computervorrichtung 850 soll verschiedene Formen mobiler Vorrichtungen, wie Personal Digital Assistants, Mobiltelefone, Smartphones und andere ähnliche Computervorrichtungen darstellen. Die hier gezeigten Komponenten, ihre Verbindungen und Beziehungen und ihre Funktionen sollen nur beispielhaft sein und sollen Implementierungen der in diesem Dokument beschriebenen und/oder beanspruchten Erfindungen nicht einschränken.
  • Die Computervorrichtung 800 umfasst einen Prozessor 802, einen Speicher 804, eine Speichervorrichtung 806, eine Hochgeschwindigkeitsschnittstelle 808, die mit Speicher 804 und Hochgeschwindigkeitserweiterungsanschlüssen 810 verbindet, und eine Niedergeschwindigkeitsschnittstelle 812, die mit dem Niedergeschwindigkeitsbus 814 und der Speichervorrichtung 806 verbindet. Alle Komponenten 802, 804, 806, 808, 810 und 812 sind unter Verwendung verschiedener Busse miteinander verbunden und können auf einem gängigen Motherboard oder gegebenenfalls in anderer Weise angebracht sein. Der Prozessor 802 kann Befehle zur Ausführung innerhalb der Computervorrichtung 800 verarbeiten, die Befehle umfassen, die in dem Speicher 804 oder auf der Speichervorrichtung 806 gespeichert sind, um grafische Informationen für eine GUI auf einer externen Eingabe-/Ausgabevorrichtung wie dem Display 816, das mit der Hochgeschwindigkeitsschnittstelle 808 gekoppelt ist, anzuzeigen. Bei anderen Implementierungen können mehrere Prozessoren und/oder mehrere Busse, wie jeweils anwendbar, zusammen mit mehreren Speichern und Speicherarten verwendet sein. Es können außerdem auch mehrere Computervorrichtungen 800 verbunden sein, wobei jede Vorrichtung Teile der notwendigen Vorgänge bereitstellt (z. B. als eine Serverbank, eine Gruppe von Blade-Servern oder ein Mehrprozessorsystem).
  • Der Speicher 804 speichert Informationen innerhalb der Computervorrichtung 800. Bei einer Implementierung ist der Speicher 804 eine nicht flüchtige Speichereinheit oder -einheiten. Bei einer anderen Implementierung ist der Speicher 804 eine nicht flüchtige Speichereinheit oder -einheiten. Der Speicher 804 kann auch eine andere Form von computerlesbarem Medium sein, wie beispielsweise ein magnetischer oder optischer Datenträger.
  • Die Speichervorrichtung 806 ist in der Lage, Massenspeicher für die Computervorrichtungen 800 bereitzustellen. Bei einer Implementierung kann die Speichervorrichtung 806 ein computerlesbares Medium sein oder beinhalten, wie ein Floppy-Disk-Laufwerk, ein Festplattenlaufwerk, ein optisches Laufwerk, eine Magnetbandeinheit, ein Flash-Speicher oder eine andere ähnliche Solid-State-Speichervorrichtung oder eine Reihe von Vorrichtungen, einschließlich Vorrichtungen in einem Speichernetzwerk oder anderen Konfigurationen. Ein Computerprogrammprodukt kann greifbar in einem Informationsträger verkörpert sein. Das Computerprogrammprodukt kann auch Befehle enthalten, die bei Ausführung ein oder mehrere Verfahren wie diejenigen, die vorstehend beschrieben sind, ausführen. Der Informationsträger ist ein computer- oder maschinenlesbares Medium wie der Speicher 804, die Speichervorrichtung 806 oder Speicher auf Prozessor 802.
  • Die Hochgeschwindigkeitssteuerung 808 verwaltet bandbreitenintensive Operationen für die Computervorrichtung 800, während die Niedergeschwindigkeitssteuerung 812 niedrigere bandbreitenintensive Operationen verwaltet. Eine solche Zuordnung von Funktionen ist nur beispielhaft. Bei einer Implementierung ist die Hochgeschwindigkeitssteuerung 808 mit Speicher 804, Display 816 (z. B. über einen Grafikprozessor oder -beschleuniger) und mit den Hochgeschwindigkeitserweiterungsanschlüssen 810, die verschiedene Erweiterungskarten (nicht gezeigt) aufnehmen können, gekoppelt. Bei der Implementierung ist die Niedergeschwindigkeitssteuerung 812 mit der Speichervorrichtung 806 und dem Niedergeschwindigkeitserweiterungsanschluss 814 gekoppelt. Der Niedergeschwindigkeitserweiterungsanschluss, der verschiedene Kommunikationsanschlüsse (z. B. USB, Bluetooth, Ethernet, Funkethernet) umfassen kann, kann an ein oder mehrere Eingabe-/Ausgabevorrichtungen wie eine Tastatur, eine Zeigevorrichtung, einen Scanner oder eine Netzwerkvorrichtung wie einen Switch oder Router z. B. durch einen Netzwerkadapter gekoppelt sein.
  • Die Computervorrichtung 800 kann in einer Anzahl von unterschiedlichen Formen implementiert sein, wie es in der Figur gezeigt ist. So kann sie beispielsweise als ein Standardserver 820 oder in einer Gruppe solcher Server mehrfach implementiert sein. Sie kann außerdem als Teil eines Rackserversystems 824 implementiert sein. Zusätzlich kann sie in einem Personal Computer wie einem Laptop 822 implementiert sein. Alternativ können Komponenten von Computervorrichtung 800 mit anderen Komponenten in einer mobilen Vorrichtung (nicht dargestellt), wie z. B. Vorrichtung 850, kombiniert sein. Jede dieser Vorrichtungen kann eine oder mehrere der Computervorrichtungen 800, 850 enthalten und ein gesamtes System kann aus mehreren Computervorrichtungen 800, 850, die miteinander kommunizieren, zusammengesetzt sein.
  • Die Computervorrichtung 850 umfasst neben anderen Komponenten einen Prozessor 852, einen Speicher 864, eine Eingabe-/Ausgabevorrichtung wie ein Display 854, eine Kommunikationsschnittstelle 866 und einen Transceiver 868. Die Vorrichtung 850 kann ebenfalls mit einer Speichervorrichtung, wie z. B. einem Microdrive, oder einer anderen Vorrichtung ausgestattet sein, um zusätzlichen Speicher bereitzustellen. Alle Komponenten 850, 852, 864, 854, 866 und 868 sind unter Verwendung verschiedener Busse miteinander verbunden und mehrere der Komponenten können auf einem gängigen Motherboard oder gegebenenfalls in anderer Weise angebracht sein.
  • Der Prozessor 852 kann Befehle in der Computervorrichtung 850 ausführen, einschließlich im Speicher 864 gespeicherter Befehle. Der Prozessor kann als ein Chipsatz von Chips implementiert sein, die separate und mehrere analoge und digitale Prozessoren umfassen. Der Prozessor kann beispielsweise die Koordination der anderen Komponenten der Vorrichtung 850 bereitstellen, wie beispielsweise die Steuerung von Benutzerschnittstellen, von Anwendungen, die von Vorrichtung 850 ausgeführt werden, und von drahtloser Kommunikation durch die Vorrichtung 850.
  • Der Prozessor 852 kann mit einem Benutzer über die Steuerschnittstelle 858 und die Anzeigeschnittstelle 856, die mit einem Display 854 gekoppelt ist, kommunizieren. Das Display 854 kann beispielsweise eine TFT-LCD-(Dünnschichttransistor-Flüssigkristallanzeige) oder ein OLED-(organische Leuchtdiode)-Anzeige oder eine andere geeignete Anzeigetechnologie sein. Die Anzeigeschnittstelle 856 kann geeignete Schaltungen zum Ansteuern der Anzeige 854 umfassen, um einem Benutzer grafische und andere Informationen zu präsentieren. Die Steuerschnittstelle 858 kann Befehle von einem Benutzer empfangen und sie zur Eingabe in den Prozessor 852 konvertieren. Zusätzlich kann eine externe Schnittstelle 862 in Verbindung mit dem Prozessor 852 vorgesehen sein, um eine Nahbereichskommunikation von Vorrichtung 850 mit anderen Vorrichtungen zu ermöglichen. Die externe Schnittstelle 862 kann beispielsweise bei manchen Implementierungen eine drahtgestützte Verbindung oder bei anderen Implementierungen eine drahtlose Verbindung sein, und es können auch mehrere Schnittstellen verwendet werden.
  • Der Speicher 864 speichert Informationen innerhalb der Computervorrichtung 850. Der Speicher 864 kann als ein oder mehrere von einem computerlesbaren Medium oder Medien, einem flüchtigen Speicher oder Speichern oder einem nicht flüchtigen Speicher oder Speichern implementiert sein. Der Erweiterungsspeicher 874 kann ebenfalls bereitgestellt und mit der Vorrichtung 850 über die Erweiterungsschnittstelle 872 verbunden werden, die zum Beispiel eine SIMM-(Single In Line Memory Module)-Kartenschnittstelle umfassen kann. Ein solcher Erweiterungsspeicher 874 kann zusätzlichen Speicherplatz für die Vorrichtung 850 bereitstellen oder kann auch Anwendungen oder andere Informationen für die Vorrichtung 850 speichern. Insbesondere kann der Erweiterungsspeicher 874 Befehle zum Ausführen oder Ergänzen der vorstehend beschriebenen Prozesse umfassen und er kann außerdem sichere Informationen umfassen. Demnach kann der Erweiterungsspeicher 874 beispielsweise als ein Sicherheitsmodul für Vorrichtung 850 bereitgestellt und mit Befehlen programmiert werden, die eine sichere Benutzung von Vorrichtung 850 erlauben. Zusätzlich dazu können über die SIMM-Karten sichere Anwendungen zusammen mit zusätzlichen Informationen, wie dem Ablegen von Identifizierungsinformationen auf der SIMM-Karte auf eine Weise, die nicht gehackt werden kann, bereitgestellt werden.
  • Der Speicher kann zum Beispiel Flashspeicher und/oder NVRAM-Speicher umfassen, wie nachstehend beschrieben. Bei einer Implementierung ist ein Computerprogrammprodukt in einem Informationsträger greifbar verkörpert. Das Computerprogrammprodukt enthält Befehle, die bei Ausführung ein oder mehrere Verfahren wie die vorstehend beschriebenen ausführen. Der Informationsträger ist ein computer- oder maschinenlesbares Medium, wie der Speicher 864, die Speichererweiterung 874 oder der Prozessorspeicher 852, das beispielsweise über den Transceiver 868 oder die externe Schnittstelle 862 empfangen werden kann.
  • Die Vorrichtung 850 kann über die Kommunikationsschnittstelle 866 drahtlos kommunizieren, die bei Bedarf eine digitale Signalverarbeitungsschaltung umfassen kann. Die Kommunikationsschnittstelle 866 kann Verbindungen mit verschiedenen Kommunikationstypen oder -protokollen, wie beispielsweise unter anderen GSM-Sprachanrufe, SMS, EMS oder MMS-Messaging, CDMA, TDMA, PDC, WCDMA, CDMA2000 oder GPRS, konstruieren. Eine solche Kommunikation kann beispielsweise durch Funkfrequenztransceiver 868 stattfinden. Zusätzlich kann eine Kurzstreckenkommunikation stattfinden, wie unter Verwendung eines Bluetooth-, Wi-Fi- oder anderen solchen Transceivers (nicht gezeigt). Außerdem kann das GPS-(Global Positioning System)-Empfängermodul 870 zusätzliche navigations- und ortsbezogene drahtlose Daten für die Vorrichtung 850 bereitstellen, die gegebenenfalls von Anwendungen verwendet werden können, die auf der Vorrichtung 850 ausgeführt werden.
  • Die Vorrichtung 850 kann ebenfalls unter Verwendung des Audiocodec 860, der gesprochene Informationen von einem Benutzer empfangen und diese in nutzbare digitale Informationen konvertieren kann, hörbar kommunizieren. Der Audiocodec 860 kann ebenfalls hörbaren Ton für einen Benutzer erzeugen, wie beispielsweise durch einen Lautsprecher zum Beispiel in einer Handvorrichtung von Vorrichtung 850. Ein derartiger Ton kann einen Ton von Sprachanrufen beinhalten, kann aufgenommene Töne (z. B. Sprachnachrichten, Musikdateien usw.) beinhalten und kann auch Töne, beinhalten, die von Anwendungen erzeugt werden, die auf der Vorrichtung 850 betrieben werden.
  • Die Computervorrichtung 850 kann in einer Anzahl von unterschiedlichen Formen implementiert sein, wie es in der Figur gezeigt ist. Sie kann beispielsweise als ein Mobiltelefon 880 implementiert sein. Sie kann außerdem als Teil eines Smartphones 882, Personal Digital Assistant oder einer anderen ähnlichen mobilen Vorrichtung implementiert sein.
  • Verschiedene Implementierungen der hier beschriebenen Systeme und Techniken können in digitalen elektronischen Schaltungen, integrierten Schaltungen, speziell konzipierten ASICs (anwendungsorientierten integrierten Schaltungen), Computerhardware, Firmware, Software und/oder Kombinationen davon realisiert sein. Diese verschiedenen Implementierungen können eine Implementierung in einem oder mehreren Computerprogrammen umfassen, die auf einem programmierbaren System ausführbar und/oder interpretierbar sind, das mindestens einen programmierbaren Prozessor umfasst, der ein spezieller oder für allgemeine Zwecke sein kann und der zum Empfangen von Daten und Anweisungen von und zum Übertragen von Daten und Befehlen an ein Speichersystem, mindestens eine Eingabevorrichtung und mindestens eine Ausgabevorrichtung gekoppelt ist.
  • Diese Computerprogramme (auch bekannt als Programme, Software, Softwareanwendungen oder Code) umfassen Maschinenbefehle für einen programmierbaren Prozessor und können in einer höheren prozeduralen und/oder objektorientierten Programmiersprache und/oder in Assembler-/Maschinensprache implementiert sein. Wie hierin verwendet, bezeichnen die Begriffe „maschinenlesbares Medium“, „computerlesbares Medium“ ein beliebiges Computerprogrammprodukt, eine beliebige Vorrichtung und/oder ein beliebiges Gerät (z. B. Magnetplatten, optische Platten, Speicher, programmierbare Logikbausteine (PLDs)), die verwendet werden, um einem programmierbaren Prozessor Maschinenbefehle und/oder Daten bereitzustellen, einschließlich eines maschinenlesbaren Mediums, das Maschinenbefehle als ein maschinenlesbares Signal empfängt. Der Begriff „maschinenlesbares Signal“ bezeichnet ein beliebiges Signal, das verwendet wird, um einem programmierbaren Prozessor Maschinenanweisungen und/oder Daten bereitzustellen.
  • Um eine Interaktion mit einem Benutzer bereitzustellen, können die hier beschriebenen Systeme und Techniken auf einem Computer implementiert werden, der eine Anzeigevorrichtung (wie z. B. einen CRT-Kathodenstrahlröhre) oder LCD-(Flüssigkristallanzeige)-Monitor) aufweist, um dem Benutzer Informationen anzuzeigen, und eine Tastatur und eine Zeigeeinrichtung (z. B. eine Maus oder ein Trackball) mittels denen der Benutzer eine Eingabe an den Computer bereitstellen kann. Es können auch andere Arten von Vorrichtungen verwendet werden, um für eine Interaktion mit einem Benutzer zu sorgen; beispielsweise kann eine an den Benutzer bereitgestellte Rückkopplung eine beliebige Form von sensorischer Rückkopplung sein, wie z. B. eine visuelle Rückkopplung, auditorische Rückkopplung oder taktile Rückkopplung; und die Eingabe vom Benutzer kann in beliebiger Form empfangen werden, einschließlich akustischer, Sprach- oder taktiler Eingabe.
  • Die hier beschriebenen Systeme und Techniken können in einem Computersystem implementiert werden, das eine Backendkomponente (z. B. als einen Datenserver) umfasst, oder das eine Middlewarekomponente (z. B. einen Applikationsserver) umfasst, oder das eine Frontendkomponente (z. B. einen Clientcomputer mit einer grafischen Benutzerschnittstelle oder einem Webbrowser umfasst, durch die bzw. den ein Benutzer mit hier beschriebenen Systemimplementationen und Techniken interagieren kann) oder jeder Kombination aus solchen Backend-, Middleware- oder Frontendkomponenten. Die Komponenten des Systems können durch eine beliebige Form oder ein beliebiges Medium digitaler Datenkommunikation, wie z. B. ein Kommunikationsnetzwerk, miteinander verbunden sein). Beispiele von Kommunikationsnetzwerken umfassen ein lokales Netzwerk („LAN“), ein Fernnetzwerk („WAN“) und das Internet.
  • Das Computersystem kann Clients und Server umfassen. Ein Client und ein Server befinden sich im Allgemeinen entfernt voneinander und interagieren typischerweise über ein Kommunikationsnetzwerk. Die Beziehung zwischen Client und Server entsteht aufgrund von Computerprogrammen, die auf den jeweiligen Computern laufen und die eine Client-Server-Beziehung zueinander aufweisen.
  • Eine Anzahl von Ausführungsbeispielen wurde beschrieben. Trotzdem versteht es sich, dass verschiedene Modifikationen durchgeführt werden können, ohne vom Geist und Umfang der Patentschrift abzuweichen.
  • Außerdem erfordern die in den Figuren dargestellten logischen Abläufe nicht die bestimmte dargestellte Reihenfolge oder sequenzielle Reihenfolge, um wünschenswerte Ergebnisse zu erzielen. Darüber hinaus können andere Schritte vorgesehen oder Schritte aus den beschriebenen Abläufen oder Abfolgen von Operationen eliminiert werden und andere Komponenten können zu den beschriebenen Systemen oder Herangehensweisen hinzugefügt oder davon entfernt werden. Dementsprechend befinden sich andere Ausführungsformen innerhalb des Umfangs der folgenden Ansprüche.

Claims (20)

  1. Computerimplementiertes Verfahren, umfassend: Anzeigen, auf einer Anzeige einer elektronischen Vorrichtung, eines Objekts von einem ersten virtuellen Realität-(VR)-Gesichtspunkt; Überlagern, auf der Anzeige, eines Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts; und Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt, wobei der zweite VR-Gesichtspunkt eine Nahansicht eines Abschnitts des Objekts ist, der sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.
  2. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das virtuelle Teleportieren vom ersten VR-Gesichtspunkt zum zweiten VR-Gesichtspunkt umfasst.
  3. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das gleichzeitige Ausblenden des ersten VR-Gesichtspunkts und das Einblenden des zweiten VR-Gesichtspunkts umfasst.
  4. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das gleichzeitige Herauslösen des ersten VR-Gesichtspunkts und das Hineinlösen des zweiten VR-Gesichtspunkts umfasst.
  5. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Objekt virtuell in einer festen Position in einem VR-Raum gehalten wird beim: Anzeigen des Objekts vom ersten VR-Gesichtspunkt; Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt; und Anzeigen des Objekts vom zweiten VR-Gesichtspunkt.
  6. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Objekt ein im digitalen Inhalt einer VR-Tour beinhaltetes Kunstwerk ist.
  7. Computerimplementiertes Verfahren nach Anspruch 1, wobei das Highlight ein erstes Highlight ist und das computerimplementierte Verfahren weiter umfasst: Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight; Entfernen, von der Anzeige der elektronischen Vorrichtung, des ersten Highlights; Überlagern, auf der Anzeige, eines zweiten Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts; und Übergehen, auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt, wobei der dritte VR-Gesichtspunkt eine Nahansicht eines Abschnitts des Objekts ist, der sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet, und sich der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, vom Abschnitt des Objekts unterscheidet, der sich innerhalb des ersten Highlights befindet.
  8. Nicht flüchtige maschinenlesbare Medien mit darauf gespeicherten Befehlen, wobei die Befehle bei Ausführung durch einen oder mehrere Prozessoren eine Computervorrichtung veranlassen zum: Anzeigen, auf einer Anzeige der Computervorrichtung, eines Objekts von einem ersten virtuellen Realität-(VR)-Gesichtspunkt; Überlagern, auf der Anzeige, eines Highlight innerhalb des ersten VR-Gesichtspunkts des Objekts; und Übergehen, auf der Anzeige der Computervorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt, wobei der zweite VR-Gesichtspunkt eine Nahansicht eines Abschnitts des Objekts ist, der sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.
  9. Nicht flüchtige maschinenlesbare Medien nach Anspruch 8, wobei das Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt das virtuelle Teleportieren vom ersten VR-Gesichtspunkt zum zweiten VR-Gesichtspunkt umfasst.
  10. Nicht flüchtige maschinenlesbare Medien nach Anspruch 8, wobei das Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt das gleichzeitige Ausblenden des ersten VR-Gesichtspunkts und das Einblenden des zweiten VR-Gesichtspunkts umfasst.
  11. Nicht flüchtige maschinenlesbare Medien nach Anspruch 8, wobei das Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt das gleichzeitige Herauslösen des ersten VR-Gesichtspunkts und das Hineinlösen des zweiten VR-Gesichtspunkts umfasst.
  12. Nicht flüchtige maschinenlesbare Medien nach Anspruch 8, wobei das Objekt virtuell in einer festen Position in einem VR-Raum gehalten wird während: Anzeigen des Objekts vom ersten VR-Gesichtspunkt; Übergehen von der Anzeige des Objekts vom ersten VR-Gesichtspunkt zur Anzeige des Objekts vom zweiten VR-Gesichtspunkt; und Anzeigen des Objekts vom zweiten VR-Gesichtspunkt.
  13. Nicht flüchtige maschinenlesbare Medien nach Anspruch 8, wobei das Highlight ein erstes Highlight ist und die Befehle bei Ausführung durch den einen oder die mehreren Prozessoren die Computervorrichtung weiter veranlassen zum: Übergehen, auf der Anzeige der Computervorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight; Entfernen, von der Anzeige der Computervorrichtung, des ersten Highlights; Überlagern, auf der Anzeige der Computervorrichtung, eines zweiten Highlights innerhalb des ersten VR-Gesichtspunkts des Objekts; und Übergehen, auf der Anzeige der Computervorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt, wobei der dritte VR-Gesichtspunkt eine Nahansicht eines Abschnitts des Objekts ist, der sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet, und sich der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, vom Abschnitt des Objekts unterscheidet, der sich innerhalb des ersten Highlights befindet.
  14. Vorrichtung, umfassend: einen oder mehrere Prozessoren; und nicht flüchtige maschinenlesbare Medien, die betriebsfähig mit dem einen oder den mehreren Prozessoren gekoppelt sind, wobei die nicht flüchtigen maschinenlesbaren Medien darauf gespeicherte Befehle aufweisen, die bei Ausführung durch den einen oder die mehreren Prozessoren darin resultieren, dass die Vorrichtung: auf einer Anzeige der Vorrichtung, ein Objekt von einem ersten virtuellen Realität-(VR)-Gesichtspunkt anzeigt; auf der Anzeige der Vorrichtung, ein Highlight innerhalb des ersten VR-Gesichtspunkts des Objekts überlagert; und auf der Anzeige der elektronischen Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem Highlight zum Anzeigen des Objekts von einem zweiten VR-Gesichtspunkt übergeht, wobei der zweite VR-Gesichtspunkt eine Nahansicht eines Abschnitts des Objekts ist, der sich innerhalb des Highlights im ersten VR-Gesichtspunkt befindet.
  15. Vorrichtung nach Anspruch 14, wobei das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das virtuelle Teleportieren vom ersten VR-Gesichtspunkt zum zweiten VR-Gesichtspunkt umfasst.
  16. Vorrichtung nach Anspruch 14, wobei das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das gleichzeitige Ausblenden des ersten VR-Gesichtspunkts und das Einblenden des zweiten VR-Gesichtspunkts umfasst.
  17. Vorrichtung nach Anspruch 14, wobei das Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt das gleichzeitige Herauslösen des ersten VR-Gesichtspunkts und das Hineinlösen des zweiten VR-Gesichtspunkts umfasst.
  18. Vorrichtung nach Anspruch 14, wobei das Objekt virtuell in einer festen Position in einem VR-Raum gehalten wird beim: Anzeigen des Objekts vom ersten VR-Gesichtspunkt; Übergehen vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt zum Anzeigen des Objekts vom zweiten VR-Gesichtspunkt; und Anzeigen des Objekts vom zweiten VR-Gesichtspunkt.
  19. Vorrichtung nach Anspruch 14, wobei das Objekt ein im digitalen Inhalt einer VR-Tour beinhaltetes Kunstwerk ist.
  20. Vorrichtung nach Anspruch 14, wobei das Highlight ein erstes Highlight ist und die Befehle bei Ausführung durch den einen oder die mehreren Prozessoren weiter darin resultieren, dass die Vorrichtung: auf der Anzeige der Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom zweiten VR-Gesichtspunkt zum Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem überlagerten ersten Highlight übergeht; von der Anzeige der Vorrichtung, das erste Highlight entfernt; auf der Anzeige, ein zweites Highlight innerhalb des ersten VR-Gesichtspunkts des Objekts überlagert; und auf der Anzeige der Vorrichtung ohne simulierte Bewegung, vom Anzeigen des Objekts vom ersten VR-Gesichtspunkt mit dem zweiten Highlight zum Anzeigen des Objekts von einem dritten VR-Gesichtspunkt übergeht, wobei der dritte VR-Gesichtspunkt eine Nahansicht eines Abschnitts des Objekts ist, der sich innerhalb des zweiten Highlights im ersten VR-Gesichtspunkt befindet, und sich der Abschnitt des Objekts, der sich innerhalb des zweiten Highlights befindet, vom Abschnitt des Objekts unterscheidet, der sich innerhalb des ersten Highlights befindet.
DE112016002711.7T 2015-06-15 2016-06-14 Darstellung von virtuellem Realität-Inhalt einschliesslich Gesichtspunktübergängen um Simulatorkrankheit zu verhindern Withdrawn DE112016002711T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562175736P 2015-06-15 2015-06-15
US62/175,736 2015-06-15
US15/179,246 2016-06-10
US15/179,246 US20160364915A1 (en) 2015-06-15 2016-06-10 Virtual reality content presentation including viewpoint transitions to prevent simulator sickness
PCT/US2016/037329 WO2016205175A1 (en) 2015-06-15 2016-06-14 Virtual reality content presentation including viewpoint transitions to prevent simulator sickness

Publications (1)

Publication Number Publication Date
DE112016002711T5 true DE112016002711T5 (de) 2018-03-22

Family

ID=57517213

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016002711.7T Withdrawn DE112016002711T5 (de) 2015-06-15 2016-06-14 Darstellung von virtuellem Realität-Inhalt einschliesslich Gesichtspunktübergängen um Simulatorkrankheit zu verhindern

Country Status (8)

Country Link
US (1) US20160364915A1 (de)
EP (1) EP3308358A1 (de)
JP (1) JP2018525692A (de)
KR (1) KR20170126963A (de)
CN (1) CN107438864A (de)
DE (1) DE112016002711T5 (de)
GB (1) GB2553693A (de)
WO (1) WO2016205175A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3367383B1 (de) * 2017-02-23 2023-12-20 Nokia Technologies Oy Virtuelle realität
CN107102728B (zh) * 2017-03-28 2021-06-18 北京犀牛数字互动科技有限公司 基于虚拟现实技术的显示方法及系统
KR102409947B1 (ko) 2017-10-12 2022-06-17 삼성전자주식회사 디스플레이 장치와 사용자 단말 장치 및 이를 포함하는 디스플레이 시스템
DE102017219468B4 (de) 2017-11-01 2023-06-22 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Nutzung einer Virtual-Reality-Einrichtung
US10275919B1 (en) 2018-02-06 2019-04-30 International Business Machines Corporation Preventing transition shocks during transitions between realities
WO2019194434A1 (ko) 2018-04-05 2019-10-10 엘지전자 주식회사 복수의 뷰포인트들에 대한 메타데이터를 송수신하는 방법 및 장치
WO2019203456A1 (ko) 2018-04-15 2019-10-24 엘지전자 주식회사 복수의 뷰포인트들에 대한 메타데이터를 송수신하는 방법 및 장치
CN108763407A (zh) * 2018-05-23 2018-11-06 王亮 一种自然景观和风俗文化相结合的虚拟现实体验系统
US11227440B2 (en) 2018-05-30 2022-01-18 Ke.com (Beijing)Technology Co., Ltd. Systems and methods for providing an audio-guided virtual reality tour
US10809760B1 (en) * 2018-10-29 2020-10-20 Facebook, Inc. Headset clock synchronization
KR102141740B1 (ko) 2018-12-06 2020-08-05 연세대학교 산학협력단 가상현실 콘텐츠 시청 시 사용자가 느끼는 피로도 예측 장치 및 방법
WO2021157011A1 (ja) * 2020-02-06 2021-08-12 大日本住友製薬株式会社 仮想現実動画再生装置、及びそれを使用する方法
KR102240933B1 (ko) 2021-01-28 2021-04-15 주식회사 앨컴퍼니 Vr 온라인 스토어를 위한 360 영상 데이터 송신 장치 및 그 동작 방법
US11789602B1 (en) * 2022-04-18 2023-10-17 Spatial Systems Inc. Immersive gallery with linear scroll

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07181424A (ja) * 1993-12-22 1995-07-21 Canon Inc 複眼式画像表示装置
US7181438B1 (en) * 1999-07-21 2007-02-20 Alberti Anemometer, Llc Database access system
US8237714B1 (en) * 2002-07-02 2012-08-07 James Burke Layered and vectored graphical user interface to a knowledge and relationship rich data source
US7722526B2 (en) * 2004-07-16 2010-05-25 Samuel Kim System, method and apparatus for preventing motion sickness
GB0521796D0 (en) * 2005-10-26 2005-12-07 Cardu Salvatore Gtgvr software application
US9148625B2 (en) * 2012-09-21 2015-09-29 Cisco Technology, Inc. Transition control in a videoconference
US9164653B2 (en) * 2013-03-15 2015-10-20 Inspace Technologies Limited Three-dimensional space for navigating objects connected in hierarchy
US9407861B2 (en) * 2013-08-16 2016-08-02 Siemens Healthcare Diagnostics Inc. User interface tool kit for mobile devices

Also Published As

Publication number Publication date
EP3308358A1 (de) 2018-04-18
KR20170126963A (ko) 2017-11-20
GB201715607D0 (en) 2017-11-08
US20160364915A1 (en) 2016-12-15
CN107438864A (zh) 2017-12-05
GB2553693A (en) 2018-03-14
JP2018525692A (ja) 2018-09-06
WO2016205175A1 (en) 2016-12-22

Similar Documents

Publication Publication Date Title
DE112016002711T5 (de) Darstellung von virtuellem Realität-Inhalt einschliesslich Gesichtspunktübergängen um Simulatorkrankheit zu verhindern
US11467709B2 (en) Mixed-reality guide data collection and presentation
Westerfield et al. Intelligent augmented reality training for motherboard assembly
DE112016004114T5 (de) Stereorenderingsystem
DE60225933T2 (de) Tragbare virtuelle realität
DE112016004640T5 (de) Filmische bearbeitung für virtuelle realität und erweiterte realität
DE112017000325T5 (de) Erweitern eines Videodatenstroms
EP2691934B1 (de) Phantombilddatenbank (3d)
DE102016013632A1 (de) Visuelle Analyse von Clickstreams auf Grundlage von Maximalsequenzmustern
DE102013114542A1 (de) Augennahe Anzeige mit Parallaxen-Sperre
DE102018004721A1 (de) Kooperationsbasierte übelkeitshemmende Techniken zum Streamen von Videos mit virtueller Realität
DE102021124168A1 (de) Integriertes augmented-reality-system zum teilen von augmented-reality-inhalt zwischen fahrzeuginsassen
DE212018000371U1 (de) Avataranimation
Bushnell et al. Using a ‘Dark Horse’prototype to manage innovative teams
DE102017118580A1 (de) Quadrangulierte geschichtete Tiefenbilder
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
DE112020004921T5 (de) Vorausschauende virtuelle rekonstruktion physischer umgebungen
DE112019001822B4 (de) Änderung und Darstellung von Audio- und Video-Multimedia
DE102008056917A1 (de) Kooperationsfenster/wand
DE102020111318A1 (de) Lokalisieren von inhalten in einer umgebung
KR101505174B1 (ko) 이미지를 활용하는 학습 시뮬레이션 모델 방법 및 장치
DE102020104055A1 (de) Rendern von objekten zur anpassung von dem kamerarauschen
DE102018006838A1 (de) Dynamisches Mapping von virtuellen und physischen Interaktionen
Kalochristianakis et al. Experiential educational environments for cultural heritage
Hristov Research of Modern Technologies and Approaches for the Development of a Web-Based Information System for Visualization of Three-Dimensional Models...

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee