DE102018204928A1 - Überleitung zwischen virtueller Realität und realer Welt - Google Patents

Überleitung zwischen virtueller Realität und realer Welt Download PDF

Info

Publication number
DE102018204928A1
DE102018204928A1 DE102018204928.9A DE102018204928A DE102018204928A1 DE 102018204928 A1 DE102018204928 A1 DE 102018204928A1 DE 102018204928 A DE102018204928 A DE 102018204928A DE 102018204928 A1 DE102018204928 A1 DE 102018204928A1
Authority
DE
Germany
Prior art keywords
virtual reality
real world
content
user
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018204928.9A
Other languages
English (en)
Inventor
Glen Anderson
Carl Marshall
Panneer Selvakumar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE102018204928A1 publication Critical patent/DE102018204928A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

Im Vorliegenden sind verschiedene Systeme und Verfahren für Überleitungen in die / aus der virtuellen Realität beschrieben. Ein Head-Mounted-Display-System zum Bereitstellen von Überleitungen in die / aus der virtuellen Realität enthält eine Maschine für Überleitungen in die / aus der virtuellen Realität, um ein von einem Benutzer des Head-Mounted-Displays eingeleitetes Auslöseereignis zu erkennen; eine Sensoranordnung, um eine Bedingung der Umgebung der realen Welt zu bestimmen; und einen Grafiktreiber, um Inhalt der virtuellen Realität in einem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert.

Description

  • GEBIET DER ERFINDUNG
  • Die im Vorliegenden beschriebenen Ausführungsformen betreffen im Allgemeinen das Computerwesen und insbesondere Systeme und Verfahren für gemischte Realitätsüberleitungen.
  • STAND DER TECHNIK
  • Eine Abbildung einer erweiterten Realität (AR - Augmented Reality) kann als Live-Ansicht einer Umgebung der realen Welt definiert werden, deren Elemente um computergenerierte Sinnesreize wie beispielsweise Ton, Video, Grafik oder GPS-Daten ergänzt (z. B. erweitert) sind. Eine Abbildung einer virtuellen Realität (VR) kann als vollständig simulierte Welt definiert werden, in der der Betrachter interagieren kann. Ein Head-Mounted-Display (HMD), manchmal auch als Helmet-Mounted-Display bezeichnet, ist ein Gerät, das am Kopf oder als Teil eines Helmes getragen wird und das in der Lage ist, Bilder vor ein oder beide Augen zu projizieren. Ein HMD kann für verschiedene Anwendungen verwendet werden, einschließlich AR- oder VR-Simulationen. HMDs werden auf einer Vielzahl von Gebieten verwendet, wie beispielsweise Militär, Spiele, Sport, Technik und Ausbildung.
  • Figurenliste
  • In den Zeichnungen, die nicht notwendigerweise maßstabsgerecht sind, können gleiche Bezugszeichen gleiche Komponenten in verschiedenen Ansichten beschreiben. Gleiche Bezugszeichen mit unterschiedlichen Buchstabenendungen können verschiedene Beispiele für ähnliche Komponenten darstellen. Einige Ausführungsformen sind in den Figuren der beigefügten Zeichnungen beispielhaft und nicht einschränkend veranschaulicht. Es zeigen:
    • 1 ein Blockdiagramm, das ein System der virtuellen Realität (VR) gemäß einer Ausführungsform veranschaulicht,
    • 2 ein Ablaufdiagramm, das einen Prozess für die Überleitung von einer VR-Umgebung in eine Umgebung der realen Welt gemäß einer Ausführungsform veranschaulicht,
    • 3 ein Ablaufdiagramm, das einen Prozess für die Überleitung von einer Umgebung der realen Welt in eine VR-Umgebung gemäß einer Ausführungsform veranschaulicht,
    • 4 ein Blockdiagramm, das ein HMD veranschaulicht, das zu Überleitungen zwischen VR-Umgebungen und Umgebungen der realen Welt gemäß einer Ausführungsform in der Lage ist,
    • 5A-C sind schematische Darstellungen, die eine Überleitung von einer VR-Umgebung in eine Umgebung der realen Welt gemäß einer Ausführungsform veranschaulichen,
    • 6 ein Ablaufdiagramm, das ein Verfahren für Überleitungen in die/ aus der virtuellen Realität gemäß einer Ausführungsform veranschaulicht, und
    • 7 ein Blockdiagramm, das eine beispielhafte Maschine gemäß einer beispielhaften Ausführungsform veranschaulicht, an der eine oder mehrere der hier beschriebenen Techniken (z. B. Methodiken) ausgeführt werden können.
  • DETAILLIERTE BESCHREIBUNG
  • In der folgenden Beschreibung sind zu Zwecken der Erläuterung zahlreiche spezifische Details aufgeführt, um ein eingehendes Verständnis einiger beispielhafter Ausführungsformen bereitzustellen. Für Fachleute wird jedoch ersichtlich werden, dass die vorliegende Offenbarung ohne diese spezifischen Details umgesetzt werden kann.
  • Eine virtuelle Realität (VR) verleiht einem Benutzer das Gefühl, vollständig in eine alternative Umgebung einzutauchen, ein bisher noch nicht betrachteter Aspekt der VR ist jedoch, wie ein Benutzer sanft von der virtuellen Welt zurück in die reale Welt übergeleitet werden kann. Nachdem sich die Augen eines Benutzers in der dunkleren Umgebung der virtuellen Welt geweitet haben, müssen sie sich schnell anpassen, wenn das VR-Headset abgenommen wird und sie sich in einer hellen Umgebung in der realen Welt wiederfinden, was Überanstrengung und Blinzeln verursacht. Im entgegengesetzten Fall können Benutzer das VR-Headset in einem dunklen Raum abnehmen, wobei die Display-Einstellungen der Helligkeit des VR-Headsets extrem hoch war, was zeitweilige Sehunfähigkeit verursacht, bis sich die Augen an die dunkle Umgebung der realen Welt angepasst haben.
  • Ein Mechanismus, mit dieser und anderen Situationen umzugehen, besteht darin, das VR-System so zu konfigurieren, dass es Helligkeit/Dunkelheit der Umgebung und andere Umgebungsvariablen abbildet, um das VR-Erleben derart anzupassen, dass mit der Position und der Intensität von Umgebungslichtern, Geräuschpegeln, geplanten Aktivitäten und anderen Aspekten des realen Lebens in Einklang steht, um die Überleitung von der VR zur realen Welt zu glätten. Alternativ kann das VR-System die Umgebung derart anpassen, dass sie dem VR-Erlebnis entspricht.
  • Gegenwärtige VR-HMDs besitzen keine sanfte Überleitung von der virtuellen in die reale Welt. Im Vorliegenden beschriebene Systeme und Verfahren erleichtern es dem Benutzer, in die reale Welt zurückzukehren, wenn er einen VR-HMD abnimmt.
  • 1 ist ein Blockdiagramm, das ein System (100) der virtuellen Realität (VR) gemäß einer Ausführungsform darstellt. Das VR-System 100 kann ein Head-Mounted-Display 102 (HMD) und einen Server 150 enthalten. Das VR-System 100 kann an einem lokalen Standort, wie beispielsweise einem Büro oder einer Wohnstätte, installiert oder ausgeführt werden oder es kann von einem entfernten Standort, wie beispielsweise einem Datenzentrum oder einem Cloud-Dienst, installiert oder ausgeführt werden. Teile des VR-Systems 100 können lokal laufen, wohingegen andere Teile (bezüglich der lokalen Elemente) entfernt laufen können. Das HMD 102 kann über eine festverdrahtete Verbindung (z. B. DVI, DisplayPort, HDMI, VGA, Ethernet, USB, FireWire, AV-Kabeln und dergleichen) oder über eine drahtlose Verbindung (z. B. Bluetooth, WLAN und dergleichen) kommunikationsfähig mit dem Server 150 verbunden sein.
  • Das HMD 102 kann einen Sendeempfänger 106 enthalten, der sowohl zum Senden als auch zum Empfangen von Daten in der Lage ist, und von einer Steuerung 108 gesteuert werden. Der Sendeempfänger 106 und die Steuerung 108 können verwendet werden, um über verschiedene drahtlose Netzwerke, wie beispielsweise ein WLAN-Netzwerk (z. B. gemäß der IEEE-802.11-Normenfamilie), ein Funkzellennetzwerk, zum Beispiel ein Netzwerk, das gemäß den Normenfamilien LTE (Long-Term Evolution), LTE-Advanced, 5G oder GSM (Global System for Mobile Communications) oder dergleichen gestaltet ist, zu kommunizieren.
  • Das HMD 102 kann Bluetooth-Hardware, -Firmware und -Software enthalten, um eine Bluetooth-Verbindungsfähigkeit gemäß der IEEE-802.15-Normenfamilie zu ermöglichen. Bei einem Beispiel enthält das HMD 102 Bluetooth-Funk 110, der von Bluetooth-Firmware 112 und einem Bluetooth-Host 114 gesteuert wird.
  • Das HMD 102 kann einen linken Displaymonitor 122 enthalten, um dem linken Auge eines Betrachters 104 ein Bild anzuzeigen, und einen rechten Displaymonitor 124, um dem rechten Auge des Betrachters 104 ein Bild anzuzeigen. Dies sollte jedoch nicht als einschränkend ausgelegt werden, da bei einigen Ausführungsformen das HMD 102 nur ein Videodisplay enthalten kann, das sowohl ein dem linken Auge zugeordnetes als auch ein dem rechten Auge des Betrachters zugeordnetes Bild anzeigen kann oder ein zweidimensionales (2D) Bild auf einer Gruppe von Displaymonitoren anzeigen kann.
  • Das HMD 102 kann außerdem eine Gruppe von Sensoren 120 enthalten. Die Sensoren 120 können eine digitale Standbildkamera oder eine Videokamera enthalten, um Bilder der Umgebung zu empfangen, die an das HMD 102 angrenzt oder dieses umgibt oder in einer Sichtachse des HMD 102 liegt, z. B. die Umgebung, die an den Betrachter 104 angrenzt oder diesen umgibt oder in einer Sichtachse des Betrachters 104 liegt, wenn der Betrachter 104 das HMD 102 verwendet. Die Umgebung wird als angrenzend an den Betrachter 104 betrachtet, wenn der Betrachter 104 die Umgebung berühren oder mit ihr interagieren kann, z. B. wenn der Betrachter in einem Zug nahe einer weiteren Person sitzt und diese Person berühren oder mit ihr eine Unterhaltung führen kann. Die Umgebung kann außerdem als den Betrachter 104 umgebend betrachtet werden, wenn der Betrachter 104 in der Lage ist, die Umgebung zu sehen, z. B. wenn die Umgebung in einer Sichtachse des Betrachters 104 liegt. Das angezeigte Bild kann modifiziert werden, um eine Darstellung des Bildes der Umgebung in einer Sichtachse des HMD 102 einzubinden.
  • Die Sensoren 120 können außerdem ein Mikrofon enthalten, um Audiodaten aus der Umgebung zu empfangen. Die Sensoren 120 können außerdem einen Bewegungsmelder, z. B. einen Beschleunigungsmesser, enthalten, um eine Bewegung des HMD 102 zu erkennen, z. B. eine Bewegung des Kopfes des Betrachters, wenn der Betrachter 104 das HMD 102 trägt. Der Bewegungsmelder kann außerdem weitere Bewegungen des Betrachters 104 erkennen, z. B. wenn sich der Betrachter 104 hinsetzt, aufsteht oder den Kopf dreht.
  • Die Sensoren 120 können außerdem einen Näherungssensor enthalten, um die Nähe des HMD 102 zu Personen oder Objekten in der Umgebung der realen Welt zu erkennen, die das HMD 102 umgibt. Die Sensoren 120 können außerdem eines oder mehrere des Folgenden enthalten: Temperatursensoren, Feuchtigkeitssensoren, Lichtsensoren, Infrarotsensoren, Herzfrequenzmonitore, Vibrationssensoren, Tastsensoren, Leitwertsensoren usw., um die Aktivitäten und den gegenwärtigen Zustand des Betrachters zu erfassen, Eingaben anzunehmen und außerdem Informationen über die Umgebung des Betrachters zu erfassen.
  • Ein Betriebssystem 116 kann sich über Schnittstellen mit der Steuerung 108 und dem Bluetooth-Host 114 verbinden. Das Betriebssystem 116 kann ein Desktop-Betriebssystem, ein eingebettetes Betriebssystem, ein Echtzeit-Betriebssystem, ein proprietäres Betriebssystem, ein Netzwerk-Betriebssystem und dergleichen sein. Beispiele sind u. a. Windows® NT (und dessen Varianten), Windows® Mobile, Windows® Embedded, Mac OS®, Apple iOS, Apple WatchOS®, UNIX, Android™, JavaOS, Symbian OS, Linux und andere geeignete Betriebssystem-Plattformen, sind aber nicht darauf beschränkt.
  • Eine Kommunikationssteuerung (nicht dargestellt) kann in Hardware, Firmware oder im Betriebssystem 116 umgesetzt sein. Die Kommunikationssteuerung kann als Schnittstelle mit verschiedenen Schnittstellen von Hardware-Abstraktionsschichten (HAL - Hardware Abstraction Layer) dienen, z. B. Gerätetreiber, Kommunikationsprotokollstapel, Bibliotheken und dergleichen. Die Kommunikationssteuerung ist funktionsfähig, Benutzereingaben zu empfangen (z. B. von einem Systemereignis oder durch eine Expresssystemverbindung zur Kommunikationssteuerung) und basierend auf der Benutzereingabe mit Kommunikationsgeräten niederer Ebene zu interagieren (z. B. Bluetooth-Funk, WLAN-Funk, Zellfunk usw.). Die Kommunikationssteuerung kann, zumindest teilweise, in einer Benutzerebenenanwendung umgesetzt sein, die Verbindungen zu einer oder mehreren Bibliotheken, Geräteschnittstellen oder dergleichen im Betriebssystem 116 herstellt, um zu bewirken, dass Kommunikationsgeräte in einer bestimmten Weise arbeiten.
  • Ein Benutzeranwendungsraum 118 auf dem HMD 102 wird verwendet, um Benutzerebenenanwendungen, Steuerungen, Benutzerschnittstellen und dergleichen für den Betrachter 104 umzusetzen, um das HMD 102 zu steuern. Eine Anwendung, App, Erweiterung, Steuertafel oder ein anderes auf Benutzerebene ausführbares Softwareprogramm kann verwendet werden, um den Zugriff auf das HMD 102 zu steuern. Zum Beispiel kann eine ausführbare Datei, wie beispielsweise eine App, auf dem HMD 102 installiert und funktionsfähig sein, mit einer Host-Anwendung, die auf dem Server 150 installiert ist, zu kommunizieren. Als weiteres Beispiel kann eine Anwendung, die in einem Benutzeranwendungsraum 118 (oder dem Betriebssystem 116) ausgeführt wird, mit den Sensoren 120 zusammenarbeiten, um vom Betrachter 104 ausgeführte Gesten zu erkennen.
  • Der Server 150 kann ein Betriebssystem 156, ein Dateisystem, eine Datenbankverbindungsfähigkeit, Funkgeräte oder andere Schnittstellen enthalten, um ein VR-Erlebnis für das HMD 102 bereitzustellen. Insbesondere kann der Server 150 einen Funksendeempfänger 152 enthalten oder mit diesem funktionsfähig verbunden sein, um mit dem HMD 102 zu kommunizieren. Eine entsprechende Steuerung 154 kann den Funksendeempfänger 152 des Servers 150 steuern, der wiederum mit dem Betriebssystem 156 und Benutzerebenenanwendungen 158 verbunden sein und über diese gesteuert werden kann.
  • Während des Betriebes kann der Betrachter 104 mit Hilfe des HMD 102 mit einer VR-Umgebung interagieren. Wenn der Betrachter 104 bereit ist, die VR-Umgebung zu verlassen, kann der Betrachter 104 eine Auslöseaktion durchführen. Die Aktion kann ein Schlüsselwort sein, das der Betrachter 104 ausspricht, eine Auslösegeste, die der Betrachter 104 ausführt, oder eine Benutzerschnittstelle (z. B. ein Knopf des HMD 102), die der Betrachter drückt. Dies ist eine nicht einschränkende Liste von Aktionen und es versteht sich, dass weitere Aktionen oder Kombinationen von Aktionen ausgeführt werden können, um anzuzeigen, dass der Betrachter 104 bereit ist, die VR-Umgebung zu verlassen. In Reaktion darauf kann das HMD 102 damit beginnen, Bilder für den Betrachter 104 anzuzeigen, um den Betrachter 104 aus der VR-Umgebung in die Umgebung der realen Welt überzuleiten. Das Überleiten kann durch das HMD 102 oder durch den Server 150 gesteuert werden.
  • 2 ist ein Ablaufdiagramm, das einen Prozess 200 für die Überleitung von einer VR-Umgebung in die Umgebung der realen Welt gemäß einer Ausführungsform darstellt. Die externe Beleuchtung wird durch eine Sensoranordnung auf dem HMD gemessen. Die Beleuchtung kann mit Hilfe eines oder mehrerer Lichtstärkesensoren, einer oder mehrerer Kameras, eines oder mehrerer Lichtmesser oder dergleichen gemessen werden, um die Lichtintensität, -richtung oder -farbe zu messen. Die Sensoren können um die Vorderseite oder die Seiten des HMD herum angeordnet sein. Zusätzlich kann das HMD ein Stirnband, einen Helm oder eine andere Haltevorrichtung enthalten, um das HMD am Kopf des Benutzers an Ort und Stelle zu positionieren. Die Sensoren können an oder um eine derartige Haltevorrichtung herum angeordnet sein.
  • Der Benutzer/Träger kann ein Verlassen der Umgebung der virtuellen Realität einleiten (Operation 204). Der Benutzer kann eine Absicht zum Verlassen mit Hilfe eines Sprachbefehls, einer Geste, einer Benutzerschnittstellenkomponente oder dergleichen einleiten. Zum Beispiel kann der Benutzer einen Knopf am HMD drücken, um den Betrieb des HMD zu unterbrechen und eine VR-Sitzung zu beenden.
  • Die externe Beleuchtung (z. B. Beleuchtung der realen Welt) wird mit der angezeigten Beleuchtung in der VR-Umgebung verglichen. Wenn die externe Beleuchtung heller ist (Operation 206), wird der HMD-Inhalt in der VR-Umgebung zu einem helleren Bild übergeleitet (Operation 208). Der HMD-Inhalt kann angepasst werden, um die Beleuchtungseigenschaften der Umgebung der externen realen Welt zu imitieren (Operation 216). Wenn sich zum Beispiel eine helle Lampe an einer bestimmten Position des Sichtfelds des Benutzers befindet, kann der HMD-Inhalt modifiziert werden, um einen helleren Punkt an die relative Position der Lampe zu bringen. Bei einem Beispiel wird die Farbe des externen Lichts zusammen mit seiner Position und Intensität im HMD-Inhalt reproduziert. Mit Hilfe dieser Art von Überleitungswirkung bereitet das HMD die Augen des Benutzers auf die tatsächliche Umgebung der realen Welt vor, so dass die Augen des Benutzers bereits an das Umgebungslicht der realen Welt angepasst sind, wenn der Benutzer das HMD von Kopf nimmt. Der Benutzer kann physisches Unbehagen vermeiden, die mit kurzzeitiger Blendung in Verbindung steht. Kurzzeitige Blendung ist eine vorübergehende Sehunfähigkeit, die durch einen hellen Lichtblitz verursacht wird, der die Retinapigmente übersättigt.
  • Wenn die externe Beleuchtung dunkler als der HMD-Inhalt ist (Operation 210), kann der HMD-Inhalt verdunkelt werden (Operation 212). Dies kann einige Komplikationen mit der Dunkelheitsanpassung verhindern. Dunkelheitsanpassung bezeichnet die Veränderung der Sensibilität von Stäbchen und Zapfen in einer menschlichen Netzhaut, da diese jeweils ihre Sensibilität gegenüber Licht in einer abgedunkelten Umgebung erhöhen. Zapfen sind empfindlicher für Licht, brauchen aber bei der Überleitung von einer hellen Umgebung in eine abgedunkelte Umgebung für die Anpassung länger. Somit unterstützt ein Verdunkeln des HMD-Inhalts (Operation 212) den früheren Beginn der Dunkelheitsanpassung vor dem Verlassen der VR-Sitzung. Der verdunkelte HMD-Inhalt wird angezeigt (Operation 216).
  • Es versteht sich, dass die Aufhellungsoperation 208 oder die Verdunklungsoperation 212 mehrere Male wiederholt werden kann, um die Lichtintensität langsam zu erhöhen beziehungsweise zu senken. Somit kann der Prozess 200 mehrere Male von der Operation 208 zur Operation 216 ablaufen, um den Inhalt im Verlauf der Zeit aufzuhellen. Alternativ kann der Prozess 200 mehrere Male von der Operation 212 zur Operation 216 verlaufen, um den Inhalt im Verlauf der Zeit abzudunkeln.
  • Bei einem Beispiel kann der Benutzer das Verlassen der VR relativ früh vor dem tatsächlich beabsichtigten Ende der VR-Sitzung einleiten (Operation 204). Zum Beispiel kann der Benutzer das Verlassen der VR zehn Minuten vor dem Verlassen einleiten. Während des zehnminütigen Herunterzählens können die Szenen der VR-Sitzung angepasst werden, um die Lichtzusammensetzung der Umgebung der realen Welt des Benutzers langsam zu integrieren. Die längere Vorlaufzeit kann dem Benutzer helfen, sich an bestimmte Beleuchtungsbedingungen anzupassen. Zum Beispiel können die Zapfen in der Netzhaut des Benutzers bis zu zwei Minuten dreißig benötigen, um sich vollständig an eine abgedunkelte Umgebung anzupassen. Durch die Verwendung einer längeren Vorlaufzeit wird für die Zapfen mehr Zeit zum Anpassen bereitgestellt und der Benutzer wird die VR-Sitzung nicht nachtblind verlassen.
  • Wenn zwischen dem VR-Inhalt und der Umgebung der realen Welt kein Beleuchtungsunterschied besteht (Operation 214), wird der VR-Inhalt ohne Modifizierungen angezeigt (Operation 216).
  • Obwohl 2 eine VR-Umgebung beschreibt, versteht es sich, dass eine AR-Umgebung in ähnlicher Weise für den Benutzer angepasst werden kann. Wenn zum Beispiel in einer AR-Umgebung ein Element des AR-Inhalts eine helle Lichtquelle verdeckt (z. B. ein Deckenlicht), können die visuellen Eigenschaften des Elements des AR-Inhalts vor dem Entfernen des Elements des AR-Inhalts angepasst werden, um es den Augen des Benutzers zu ermöglichen, sich an die Beleuchtungsbedingungen der realen Welt anzupassen. Das Element des AR-Inhalts kann zum Beispiel mit fortschreitend durchscheinenden Werten angezeigt werden (z. B. Ausblenden). Als ein weiteres Beispiel kann der AR-Inhalt mit einem zunehmend hellen Punkt modifiziert werden, der auf den Inhalt gezogen wird.
  • 3 ist ein Ablaufdiagramm, das einen Prozess 300 für die Überleitung von der Umgebung der realen Welt in eine VR-Umgebung gemäß einer Ausführungsform darstellt. Ähnlich der in 2 dargestellten Funktionalität wird in 3 der HMD-Inhalt modifiziert, um den Benutzer zu unterstützen, wenn der Benutzer in eine VR-Sitzung eintritt. Bei 302 wird die externe Beleuchtung gemessen. Dies kann zum Beispiel durchgeführt werden, wenn der Benutzer das HMD auf seinem Kopf platziert. Alternativ kann diese Messoperation in Reaktion darauf durchgeführt werden, dass der Benutzer eine VR-Sitzung einleitet (Operation 304).
  • Wenn die externe Beleuchtung heller als der HMD-Inhalt ist, der dem Benutzer angezeigt wird (Operation 306), wird der HMD-Inhalt anfangs mit einer hellen Modifizierung angezeigt (Operation 308). Dieser modifizierte HMD-Inhalt wird angezeigt (Operation 316) und dann mit der Zeit weiter modifiziert, um den HMD-Inhalt schließlich in seinem Originalformat anzuzeigen (Operation 318). Dieser Prozess ermöglicht es den Augen des Benutzers, sich an eine dunkle Szene in dem HMD-Inhalt anzupassen, und ermöglicht es dem Benutzer, Nachtblindheit zu vermeiden, und verbessert das Benutzererlebnis.
  • Wenn die externe Beleuchtung dunkler als der HMD-Inhalt ist, der den Benutzer angezeigt wird (Operation 310), wird der HMD-Inhalt anfangs mit dunkler Modifizierung angezeigt (Operation 312). Dieser modifizierte HMD-Inhalt wird angezeigt (Operation 316) und dann mit der Zeit weiter modifiziert, um den HMD-Inhalt schließlich in seinem Originalformat anzuzeigen (Operation 318). Dieser Prozess ermöglicht es den Augen des Benutzers, sich an eine helle Szene in dem HMD-Inhalt anzupassen, und ermöglicht es dem Benutzer, kurzzeitige Blendung zu vermeiden, und verbessert das Benutzererlebnis.
  • Wenn die externe Beleuchtung dem Licht im HMD-Inhalt gleich oder ähnlich ist, wird keine Anpassung genutzt (Operation 314) und der HMD-Inhalt wird in seinem Originalformat angezeigt (Operation 316). Modifizierungen des anfänglich angezeigten HMD-Inhalts werden in diesem Ablauf nicht genutzt.
  • Während sich 2 und 3 auf das Anpassen von Beleuchtungspegeln in HMD-Inhalt beziehen, um einen Benutzer von dunkler zu heller oder von heller zu dunkler Umgebung überzuleiten, können bei weiteren Ausführungsformen Klangpegel ihn ähnlicher Weise angepasst werden. Viele VR-Umgebungen enthalten eine Klangkomponente, um einen Benutzer vollständiger in eine VR-Welt zu versetzen. Abhängig von der Umsetzung derartiger Toneffekte können dem Benutzer die Klangeigenschaften der realen Welt möglicherweise nicht bewusst sein. Wenn zum Beispiel die reale Welt geräuschvoll ist und die VR-Welt relativ still, kann der Benutzer beim Beenden einer VR-Sitzung erschüttert sein, wenn er die stille VR-Sitzung verlässt und wieder in die laute Umgebung der realen Welt zurückkehrt. Um die Überleitung zu erleichtern, kann das HMD den Geräuschpegel der realen Welt messen und den HMD-Inhalt anpassen, um den Benutzer vor dem Ende der VR-Sitzung an den Geräuschpegel der realen Welt zu gewöhnen. Beispielsweise kann ein Benutzer in einem Nahverkehrszug fahren und sich mit einer VR-Sitzung beschäftigen. Die VR-Sitzung kann einen stillen Spaziergang durch einen Wald simulieren. Wenn die VR-Sitzung endet, können Hintergrundgeräusche langsam verstärkt werden, um den Benutzer langsam aus der VR-Umgebung herauszubringen.
  • Zusätzlich dazu kann das HMD externe Beleuchtung steuern, um die Überleitung von VR/AR-Inhalt in die reale Welt weiter zu unterstützen. Zum Beispiel kann die Beleuchtung der externen realen Welt durch eine Umgebungssteuerung gesteuert werden, wie beispielsweise einen elektronischen Dimmerschalter. Das HMD kann mit der Umgebungssteuerung gekoppelt sein und die externe Beleuchtung derart anpassen, dass sie näher an der des VR- oder AR-Inhalts liegt. Wenn der Benutzer das HMD abnimmt, kann die verminderte oder verstärkte Beleuchtung in der externen Beleuchtung der realen Welt die Überleitung unterstützen. Nachdem der Benutzer das HMD abgenommen hat, kann die externe Beleuchtung wieder an eine vorherige Einstellung angepasst werden. Beispielsweise kann die externe Beleuchtung vor dem Abnehmen des HMD durch den Benutzer bei einer maximalen Helligkeit für den Raum liegen. Kurz bevor der Benutzer das HMD abnimmt, kann die Helligkeit dem Helligkeitspegel des VR-Inhalts entsprechend auf 40 % reduziert werden. Nachdem der Benutzer das HMD abgenommen hat, kann die Beleuchtung der externen realen Welt schrittweise verstärkt werden, bis sie wieder 100 % Helligkeit erreicht. Steuerungen für die externe Umgebung können in Kombination mit einer Änderung der Helligkeit des VR- oder AR-Inhalts verwendet werden.
  • 4 ist ein Blockdiagramm, das ein HMD 400 gemäß einer Ausführungsform darstellt, welches für eine Überleitung zwischen einer VR-Umgebung und der realen Welt geeignet ist. Das HMD 400 enthält eine Sensoranordnung 402, eine VR-Überleitungsmaschine 404, eine Beleuchtungsanordnung 406, einen Grafiktreiber 408, ein Display 410, ein Prozessorteilsystem 412 und einen Speicher 414.
  • Das HMD 400 ist mit internen Systemen ausgestattet, die den Zustand des HMD 400 überwachen und basierend auf dem Zustand das vom HMD 400 bereitgestellte Display 410 anpassen. Das HMD 400 kann mit einem oder mehreren Sensoren ausgestattet sein (z. B. Beschleunigungsmessern, Gyrometern oder Magnetometern), um den Zustand des HMD 400 und optional den Zustand des Benutzers zu bestimmen.
  • Die Sensoranordnung 402 kann verschiedene Sensoren enthalten, wie beispielsweise Kameras, Lichtmesser, Mikrofone oder dergleichen, um die Umgebung um den Benutzer des HMD 400 zu überwachen. Die Sensoranordnung 402 kann eine oder mehrere Kameras enthalten, die in der Lage sind, sichtbares Licht, Infrarotlicht oder dergleichen zu erfassen, und die als 2D- oder 3D-Kameras (z. B. Tiefenkamera) verwendet werden können. Die Sensoranordnung 402 kann dafür konfiguriert sein, eine von einem Benutzer (Träger) ausgeführte Geste zu erkennen, und das Prozessorteilsystem 412 kann die Geste verwenden, um einen Überleitungsprozess auszulösen.
  • Das HMD 400 kann optional einen oder mehrere nach innen gerichtete Sensoren enthalten (nicht dargestellt), um das Gesicht, die Haut oder Augen des Benutzers abzutasten und eine relative Bewegung zwischen dem HMD 400 und dem erkannten Gesicht, der erkannten Haut oder den erkannten Augen zu bestimmen. Die nach innen gerichteten Sensoren können bei verschiedenen Ausführungsformen an einem Innenabschnitt des HMD 400 montiert sein, wie beispielsweise in das Brillengehäuse, an die Linse oder an einen hervorstehenden Abschnitt des HMD 400. Die relative Bewegung des Kopfes und der Augen des Benutzers kann verwendet werden, um die Perspektive des Benutzers in der VR-Umgebung zu bewegen. Zusätzlich dazu kann die relative Bewegung verwendet werden, um einen aufgehellten Bereich in der VR-Welt derart zu bewegen, dass er Lichtquellen in der realen Welt nachfolgt, so dass der aufgehellte Bereich lokalisiert wird und der Position der Lichtquelle der realen Welt nachfolgt, wenn der Benutzer seinen Kopf dreht.
  • Das HMD 400 enthält ein Display 410. Auf das Display 410 können ein oder mehrere Bilder projiziert werden, wie es beispielsweise durch ein Mikrodiaplay erfolgt. Alternativ kann das Display 410 teilweise oder vollständig ein aktives Display sein (z. B. eine organische Leuchtdiode (OLED)), das in der Lage ist, vor einem Benutzer ein Bild zu erzeugen. Das Display 410 kann auch mit Hilfe einer Netzhautprojektion von verschiedenen Lichtarten unter Verwendung von Mechanismen bereitgestellt werden, die Wellenleiter, Scan-Raster, Farbtrennung oder andere Mechanismen einschließen (aber nicht darauf beschränkt sind). Bei einigen Beispielen ist das Display 410 in der Lage, einen hochdynamischen Bereich zu erzeugen, um Eigenschaften der echten Welt zu entsprechen.
  • Die VR-Überleitungsmaschine 404 kann in Hardware, als durch Software konfigurierter Hardware oder als ein Dienst umgesetzt sein, der durch das Prozessorteilsystem 412 bereitgestellt wird. Die VR-Überleitungsmaschine 404 überwacht die Sensoranordnung 402, um zu erkennen, wann der Benutzer ein Verlassen der VR-Sitzung einleitet. Die VR-Überleitungsmaschine 404 kann dann mit dem Grafiktreiber 408 interagieren, um Video-Frames zu modifizieren, die an das Display 410 ausgegeben werden. Die Modifizierungen können das Aufhellen oder Verdunkeln der VR-Umgebung oder von Teilen der VR-Umgebung sein. Mit Hilfe der Sensoranordnung 402 kann die VR-Überleitungsmaschine 404 eine ungefähre Position einer Lichtquelle in der Umgebung der realen Welt bestimmen und den Grafiktreiber 408 dazu veranlassen, Helligkeit in die VR-Umgebung zu zeichnen. Die Position der Lichtquelle kann gespeichert werden, so dass, wenn der Benutzer seinen Kopf in der VR-Welt dreht, der aufgehellte Bereich, der dem Licht in der realen Welt entspricht, lokalisiert wird und der Position der Lichtquelle in der realen Welt nachfolgt.
  • Eine optionale Lichtanordnung 406 kann am oder um das HMD 400 herum angeordnet sein. Zum Beispiel kann die Lichtanordnung 46 Leuchtdioden (LED) am Inneren des HMD 400 enthalten, um einen Teil des Gesichts des Benutzers, einschließlich der Augen des Benutzers, zu beleuchten, um den Benutzer bei der Anpassung an ein helleres Umgebungslicht zu unterstützen. Die Lichter können in Koordination mit der Lichtquelle der realen Welt aktiviert werden. Wenn zum Beispiel der Benutzer nach vorn schaut und ein Deckenlicht in einem 45°-Winkel von vorn links und in einem 60°-Winkel zur Horizontalen auf ihn herabscheint, können Lichter in der oberen linken Ecke des HMD 400 aktiviert werden, um die Raumbeleuchtung zu simulieren. Die Intensität, Farbe und Position können reproduziert werden, um den Benutzer von dem VR-Erlebnis in das Erleben der realen Welt überzuleiten. Die Lichtanordnung 406 kann allein oder in Kombination mit Modifizierungen des HMD-Ausgangs verwendet werden, der auf dem Display 410 angezeigt wird.
  • Der Speicher 414 kann Befehle zum Ausführen der verschiedenen hierin beschriebenen Funktionen enthalten, die bei Ausführung durch das Prozessorteilsystem 412 die Funktionen umsetzen können. Der Speicher 414 kann außerdem Benutzerprofile enthalten, um die Überleitung zu konfigurieren oder zu steuern. Benutzerprofile können die Länge der Überleitungsperiode, Beleuchtungspräferenzen, Klangpräferenzen, Auslöseaktionen usw. definieren.
  • Die 5A-C sind schematische Darstellungen, die die Überleitung von einer VR-Umgebung in eine Umgebung der realen Welt gemäß einer Ausführungsform darstellen. 5A veranschaulicht eine Umgebung 500 der realen Welt, wie beispielsweise ein Home-Office oder einen anderen Raum. Die Umgebung der realen Welt enthält zwei Deckenlichter 502A, 502B (gemeinsam als 502 bezeichnet). Die Deckenlichter 502 weisen einen hoch intensiven Bereich auf, der nahe der Vertiefung lokalisiert ist, welche das Deckenlicht 502 beherbergt, und um den Rest der Umgebung 500 stärker gestreutes Licht.
  • 5B veranschaulicht eine VR-Umgebung 550, die der Benutzer betrachtet, während er sich in der Umgebung 500 der realen Welt befindet. Es wird davon ausgegangen, dass der Benutzer in die gleiche Richtung schaut wie die in 5A dargestellte. Für die Zeit des Aufenthalts in der VR-Umgebung 550 ist jedoch die gesamte Beleuchtungszusammensetzung der realen Welt durch das HMD überdeckt. Die VR-Umgebung 550 kann eine nächtliche Szene sein, so dass das Umgebungslicht in der VR-Umgebung 550 möglicherweise schwach ist.
  • 5C veranschaulicht einen Teil des Überleitungsprozesses, in dem die Deckenlichter 502 als lokalisierte aufgehellte Bereiche 552, 554 in der VR-Umgebung 550 dargestellt sind. Die hellen Bereiche 552, 554 können wie relativ gedimmte Glanzlichter sein und dann mit der Zeit an Intensität zunehmen und optional die Farbe ändern, um die Beleuchtung 502 der realen Welt zu imitieren. Es kann also die gesamte Szene in der VR-Umgebung 550 optional aufgehellt werden, um sie besser der Umgebungsbeleuchtung in der Umgebung 500 der realen Welt anzugleichen.
  • Somit ist, um zu 4 zurückzukehren, das HMD 400 ein System zum Bereitstellen von Überleitungen in die / aus der virtuellen Realität, das eine VR-Überleitungsmaschine 404 zum Erkennen eines Auslöseereignisses, das von einem Benutzer des Head-Mounted-Displays eingeleitet wird, eine Sensoranordnung 402 zum Bestimmen der Bedingung in der Umgebung der realen Welt und einen Grafiktreiber 408 enthält, um Inhalt der virtuellen Realität in einem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert.
  • Bei einer Ausführungsform ist die VR-Überleitungsmaschine 404 dafür vorgesehen, einen vom Benutzer geäußerten Sprachbefehl zu erkennen, um das Auslöseereignis zu erkennen. Bei einer verwandten Ausführungsform ist die VR-Überleitungsmaschine 404 dafür vorgesehen, eine vom Benutzer vorgenommene Geste zu erkennen, um das Auslöseereignis zu erkennen. Bei einer verwandten Ausführungsform ist die VR-Überleitungsmaschine 404 dafür vorgesehen, eine vom Benutzer durchgeführte Benutzerschnittstelleninteraktion zu erkennen, um das Auslöseereignis zu erkennen. Bei einer verwandten Ausführungsform ist die VR-Überleitungsmaschine 404 dafür vorgesehen, ein vom Benutzer durchgeführtes Drücken eines Knopfes zu erkennen, um das Auslöseereignis zu erkennen.
  • Um den VR-Inhalt angemessen anzupassen, überwacht das HMD 400 die Umgebungsbedingungen (z. B. Licht, Geräusch) um den Benutzer. Somit ist bei einer Ausführungsform die Sensoranordnung 402 dafür vorgesehen, auf Sensordaten zuzugreifen, die Leuchtdichtedaten enthalten, die eine Umgebung um den Benutzer beschreiben, um die Bedingungen der Umgebung der realen Welt zu bestimmen. Bei einer weiteren Ausführungsform werden die Leuchtdichtedaten von einer Kameraanordnung erzielt. Die Kameraanordnung kann eine oder mehrere Kameras enthalten, die in der Lage sind, sichtbares Licht, Infrarotlicht oder dergleichen zu erkennen.
  • Bei einer weiteren Ausführungsform werden die Leuchtdichtedaten von einem Lichtmesser erhalten. Um den Scheitel des Kopfes eines Benutzers (z. B. an einem HMD-Stirnband oder einem anderen Trageelement) können mehrere Lichtmesser angeordnet sein. Die Lichtmesser können einige Erkenntnisse hinsichtlich der Richtung stärkerer Lichtquellen und deren Position im Verhältnis zu der Richtung bereitstellen, in die der Benutzer schaut. Wenn sich der Benutzer hin zu einem helleren Licht wendet, kann der VR-Inhalt mit helleren Teilen angepasst werden, um der helleren Außenumgebung Rechnung zu tragen.
  • Bei einer weiteren Ausführungsform werden die Leuchtdichtedaten von einem Lichtstärkesensor erhalten. Ein Lichtstärkesensor ähnelt einem Lichtmesser. Ein Lichtstärkesensor kann jedoch einen breiteren Bereich erkennbaren Lichts (z. B. das volle Spektrum sichtbaren Lichts) und genauere Messwerte aufweisen und in kleineren Formfaktoren gepackt sein. Zum Beispiel können einige Lichtstärkesensoren so wenig wie 188 Mikrolux und so viel wie 88.000 Lux erkennen.
  • Bei einer weiteren Ausführungsform ist die Sensoranordnung 402 dafür vorgesehen, auf Sensordaten zuzugreifen, die Geräuschdaten enthalten, welche die Umgebung um den Benutzer beschreiben, um die Bedingung der Umgebung der realen Welt zu bestimmen. Die Geräuschdaten können von einem Mikrofon erhalten werden, das mit dem Head-Mounted-Display 410 gekoppelt ist. Der Richtung des Geräuschs kann ebenfalls Rechnung getragen werden.
  • Basierend auf dem Beleuchtungspegel der Umgebung der realen Welt kann der VR-Inhalt auf verschiedene Weise angepasst werden. Wenn der Beleuchtungspegel in der realen Welt heller ist, kann der VR-Inhalt aufgehellt werden, um den Benutzer einzugewöhnen. So ist bei einer Ausführungsform der Grafiktreiber 408 dafür vorgesehen, eine Position und eine Intensität einer Lichtquelle der realen Welt in einer Umgebung um den Benutzer zu bestimmen, und einen hellen Bereich im Inhalt der virtuellen Welt an einer Position darzustellen, die der Position der Lichtquelle in der realen Welt entspricht, um Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert. Bei einer weiteren Ausführungsform ist der Grafiktreiber 408 dafür vorgesehen, den hellen Bereich von einem ersten Helligkeitspegel auf einen zweiten Helligkeitspegel anzupassen, wobei der zweite Helligkeitspegel der Intensität der Lichtquelle der realen Welt näher ist als der erste Helligkeitspegel.
  • Diese Anpassung kann über eine Zeitspanne hinweg ausgeführt werden, um es dem Benutzer zu ermöglichen, sich schrittweise anzupassen. Die Zeitspanne kann ein paar Sekunden betragen (z. B. 20 Sekunden) oder länger sein. Da sich Menschen an helles Licht schneller als an dunkle Umgebungen anpassen, benötigt eine Person typischerweise weniger Zeit, um sich an einen gut beleuchteten Bereich anzupassen als an das Gegenteil. Somit ist bei einer Ausführungsform, um den hellen Bereich anzupassen, der Grafiktreiber 408 dafür vorgesehen, den hellen Bereich vom ersten Helligkeitspegel auf den zweiten Helligkeitspegel über eine Zeitspanne anzupassen.
  • Bei einer Ausführungsform ist die VR-Überleitungsmaschine 404 dafür vorgesehen, eine Farbe der Lichtquelle der realen Welt zu bestimmen, und ist der Grafiktreiber 408 dafür vorgesehen, den hellen Bereich mit Hilfe einer Farbe darzustellen, die der Farbe der Lichtquelle der realen Welt ähnelt.
  • In einigen Fällen, wenn sich zum Beispiel ein Benutzer in einer hellen Umgebung befindet und ein HMD 400 anlegt, kann der Inhalt in dem HMD 400 zunächst für einen Benutzer zum Erkennen zu dunkel sein (z. B. Augen sind nicht an gedimmte Umgebung angepasst). Somit kann das HMD 400 den VR-Inhalt anfänglich in einem Format darstellen, das heller als gewöhnlich ist, und dann die Helligkeit mit der Zeit verringern, um das Originalformat zu erreichen. Somit ist der Grafiktreiber bei einer Ausführungsform dafür vorgesehen, den Inhalt der virtuellen Realität über eine Zeitspanne schrittweise zu dimmen, wobei das Dimmen bewirkt, dass anfänglich aufgehellter Inhalt der virtuellen Realität gedimmt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Im umgekehrten Fall, in dem der Benutzer in eine dunkle Umgebung übergeleitet wird oder eine VR-Sitzung in einer dunklen Umgebung beginnt, kann die Helligkeit des VR-Inhalts angepasst werden, um den Benutzer aus oder in eine derartige Umgebung überzuleiten.
  • Bei einer Ausführungsform ist der Grafiktreiber 408 dafür vorgesehen, einen Helligkeitspegel einer Umgebung um den Benutzer zu bestimmen und den Inhalt der virtuellen Realität näher zum Helligkeitspegel der Umgebung der realen Welt zu dimmen, wenn der Helligkeitspegel der Umgebung der realen Welt geringer als der Helligkeitspegel des Inhalts der virtuellen Realität ist, um den Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert. Dies kann geschehen, wenn der Benutzer den VR-Inhalt verlässt, und kann über eine längere Zeitspanne erfolgen. Bei einer Ausführungsform ist, um den Inhalt der virtuellen Realität zu dimmen, der Grafiktreiber dafür vorgesehen, den Inhalt der virtuellen Realität über eine Zeitspanne schrittweise zu dimmen. Bei einer weiteren Ausführungsform beträgt die Zeitspanne mindestens fünf Minuten.
  • Das Dimmen des VR-Inhalts kann außerdem zunächst erfolgen, wenn der Benutzer das HMD 400 anlegt, so dass die Helligkeit später verstärkt werden kann, wenn der Benutzer sich an den VR-Inhalt anpasst. Bei einer Ausführungsform ist der Grafiktreiber 408 dafür vorgesehen, den Inhalt der virtuellen Realität über eine Zeitspanne schrittweise aufzuhellen, wobei das Aufhellen bewirkt, dass anfänglich gedimmter Inhalt der virtuellen Realität aufgehellt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Umgebungsgeräuschen kann ebenfalls Rechnung getragen werden, wenn der Benutzer in oder aus einer VR-Umgebung übergeleitet wird. Bei einer Ausführungsform ist die VR-Überleitungsmaschine 404 dafür vorgesehen, einen Geräuschpegel einer Umgebung um den Benutzer zu bestimmen und einen Geräuschpegel des Inhalts der virtuellen Realität schrittweise näher an den Geräuschpegel der Umgebung um den Benutzer zu bringen, wenn der Geräuschpegel der Umgebung der realen Welt höher als der Geräuschpegel des Inhalts der virtuellen Realität ist, um den Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert.
  • 6 ist ein Ablaufdiagramm, das ein Verfahren 600 für Überleitungen in die / aus der virtuellen Realität gemäß einer Ausführungsform veranschaulicht. Bei 602 wird am Head-Mounted-Display ein vom Benutzer des Head-Mounted-Displays eingeleitetes Auslöseereignis erkannt. Bei 604 wird eine Bedingung der Umgebung der realen Welt bestimmt. Bei 606 wird der Inhalt der virtuellen Realität durch ein Head-Mounted-Display in einem Format dargestellt, das auf der Bedingung der Umgebung der realen Welt basiert.
  • Bei einer Ausführungsform umfasst das Erkennen des Auslöseereignisses das Erkennen eines vom Benutzer geäußerten Sprachbefehls. Bei einer verwandten Ausführungsform umfasst das Erkennen des Auslöseereignisses das Erkennen einer vom Benutzer vorgenommene Geste. Bei einer verwandten Ausführungsform umfasst das Erkennen des Auslöseereignisses das Erkennen einer vom Benutzer durchgeführten Benutzerschnittstelleninteraktion. Bei einer verwandten Ausführungsform umfasst das Erkennen des Auslöseereignisses das Erkennen eines vom Benutzer durchgeführtes Drückens eines Knopfes. Der Knopf kann an einem Gehäuse des Head-Mounted-Displays angeordnet sein.
  • Bei einer Ausführungsform umfasst das Bestimmen der Bedingung der Umgebung der realen Welt das Zugreifen auf Sensordaten, die Leuchtdichtedaten enthalten, welche eine Umgebung um den Benutzer beschreiben. Bei einer weiteren Ausführungsform werden die Leuchtdichtedaten von einer Kameraanordnung erhalten. Bei einer verwandten Ausführungsform werden die Leuchtdichtedaten von einem Lichtmesser erhalten. Bei einer verwandten Ausführungsform werden die Leuchtdichtedaten von einem Leuchtstärkesensor erhalten.
  • Bei einer Ausführungsform umfasst das Bestimmen der Bedingung der Umgebung der realen Welt das Zugreifen auf Sensordaten, die Geräuschdaten enthalten, welche eine Umgebung um den Benutzer beschreiben. Bei einer weiteren Ausführungsform werden die Geräuschdaten von einem Mikrofon erhalten, das mit dem Head-Mounted-Display gekoppelt ist.
  • Bei einer Ausführungsform umfasst das Darstellen des Inhalts der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, das Bestimmen einer Position und einer Intensität einer Lichtquelle in der realen Welt in einer Umgebung um den Benutzer und das Darstellen eines hellen Bereichs im Inhalt der virtuellen Realität an einer Position, die der Position der Lichtquelle der realen Welt entspricht. Bei einer weiteren Ausführungsform enthält das Verfahren 600 das Anpassen des hellen Bereichs von einem ersten Helligkeitspegel auf einen zweiten Helligkeitspegel, wobei der zweite Helligkeitspegel der Intensität der Lichtquelle der realen Welt näher ist als der erste Helligkeitspegel. Bei einer weiteren Ausführungsform umfasst das Anpassen des hellen Bereichs das Anpassen des hellen Bereichs vom ersten Helligkeitspegel auf den zweiten Helligkeitspegel über eine Zeitspanne.
  • Bei einer weiteren Ausführungsform enthält das Verfahren 600 das Bestimmen einer Farbe der Lichtquelle der realen Welt und das Darstellen des hellen Bereichs mit Hilfe einer Farbe, die ähnlich der Farbe der Lichtquelle der realen Welt ist.
  • Bei einer Ausführungsform enthält das Verfahren 600 das schrittweise Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne, wobei das Dimmen bewirkt, dass anfänglich aufgehellter Inhalt der virtuellen Realität gedimmt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird. Bei dieser Ausführungsform kann der VR-Inhalt, nachdem der Inhalt anfänglich nahe der Raumlichtintensität angezeigt wird, gedimmt werden, bis er im Quellformat ist (z. B. die Beleuchtungseffekte, wie sie ursprünglich vom Hersteller des VR-Inhalts gestaltet wurden).
  • Bei einer Ausführungsform umfasst das Darstellen des Inhalts der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, das Bestimmen eines Helligkeitspegels einer Umgebung um den Benutzer und das Dimmen des Inhalts der virtuellen Realität, so dass es dem Helligkeitspegel der Umgebung der realen Welt näher ist, wenn der Helligkeitspegel der Umgebung der realen Welt geringer als ein Helligkeitspegel des Inhalts der virtuellen Realität ist. Bei einer weiteren Ausführungsform umfasst das Dimmen des Inhalts der virtuellen Realität das schrittweise Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne. Es dauert typischerweise länger, bis sich eine Person an dunkle Umgebungen angepasst hat, nachdem sie sich in einer hell erleuchteten Umgebung befunden hat. Die Zeitspanne kann also länger als ein paar Sekunden oder Minuten sein. Bei einer weiteren Ausführungsform beträgt die Zeitspanne mindestens fünf Minuten.
  • In einigen Fällen wird der VR-Inhalt anfänglich gedimmt, nachdem der Benutzer eine VR-Sitzung begonnen hat. Der gedimmte Inhalt wird verwendet, um eine leichtere Überleitung von einer dunkleren Umgebung der realen Welt in eine VR-Umgebung bereitzustellen. Nach einiger Zeit wird der Benutzer jedoch in die voll beleuchtete VR-Umgebung übergeleitet. Somit enthält das Verfahren 600 bei einer Ausführungsform das schrittweise Aufhellen des Inhalts der virtuellen Realität über eine Zeitspanne, wobei das Aufhellen bewirkt, dass anfänglich gedimmter Inhalt der virtuellen Realität aufgehellt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Zusätzlich zum Anzeigen von Helligkeit oder als Alternative dazu kann für einen Benutzer eine Überleitung zwischen Geräuschpegeln bereitgestellt werden. Bei einer Ausführungsform umfasst das Darstellen des Inhalts der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, das Bestimmen eines Geräuschpegels einer Umgebung um den Benutzer und das schrittweise Erhöhen eines Geräuschpegels des Inhalts der virtuellen Realität, so dass dieser dem Geräuschpegel der Umgebung um den Benutzer näher ist, wenn der Geräuschpegel der Umgebung der realen Welt höher als der Geräuschpegel des Inhalts der virtuellen Realität ist.
  • Ausführungsformen können in Hardware, Firmware oder Software oder einer Kombination daraus umgesetzt sein. Ausführungsformen können auch als Anweisungen umgesetzt sein, die auf einem maschinenlesbaren Speichergerät gespeichert sind und die von mindestens einem Prozessor gelesen und ausgeführt werden können, um die hier beschriebenen Operationen durchzuführen. Ein maschinenlesbares Speichergerät kann einen nicht-flüchtigen Mechanismus zum Speichern von Informationen in einer von einer Maschine (z. B. einem Computer) lesbaren Form enthalten. Zum Beispiel kann ein maschinenlesbares Speichergerät einen Nur-Lese-Speicher (ROM), einen Speicher mit wahlfreiem Zugriff (RAM), ein Magnetplatten-Speichermedium, ein optisches Speichermedium, Flash-Speicher-Geräte oder andere Speichergeräte und -medien enthalten.
  • Ein Prozessorteilsystem kann verwendet werden, um die Anweisungen auf dem maschinenlesbaren Speichermedium auszuführen. Das Prozessorteilsystem kann einen oder mehrere Prozessoren enthalten, jeder mit einem oder mehreren Kernen. Zusätzlich kann das Prozessorteilsystem auf einem oder mehreren physischen Geräten angeordnet sein. Das Prozessorteilsystem kann einen oder mehrere spezialisierte Prozessoren enthalten, wie beispielsweise eine Grafikverarbeitungseinheit (GPU), einen Digitalsignalprozessor (DSP), ein FPGA oder einen Prozessor mit feststehender Funktion.
  • Beispiele, wie sie hier beschrieben sind, können Logik oder eine Anzahl von Komponenten, Modulen oder Mechanismen enthalten oder darauf arbeiten. Module können Hardware, Software oder Firmware sein, die kommunikationsfähig mit einem oder mehreren Prozessoren gekoppelt sind, um die hier beschriebenen Operationen auszuführen. Module können Hardware-Module sein und somit können Module als dinghafte Einheiten betrachtet werden, die zum Durchführen spezifizierter Operationen in der Lage sind und auf bestimmte Weise konfiguriert oder angeordnet sein können. Bei einem Beispiel können Schaltungen (z. B. innerlich oder im Verhältnis zu externen Einheiten, wie beispielsweise weiteren Schaltungen) auf spezifizierte Weise als ein Modul angeordnet sein. Bei einem Beispiel können die Gesamtheit oder Teile eines oder mehrerer Computersysteme (z. B. eigenständige, Client- oder Server-Computersysteme) oder ein oder mehrere Hardware-Prozessoren durch Firmware oder Software (z. B. Anweisungen, einen Anwendungsabschnitt oder eine Anwendung) als ein Modul konfiguriert sein, das dazu dient, spezifizierte Operationen durchzuführen. Bei einem Beispiel kann sich die Software auf einem maschinenlesbaren Medium befinden. Bei einem Beispiel bewirkt die Software bei Ausführung durch die zugrundeliegende Hardware des Moduls, dass die Hardware die spezifizierten Operationen durchführt. Dementsprechend versteht sich der Ausdruck Hardware-Modul als eine dingliche Einheit, die physisch konstruiert, spezifisch konfiguriert (z. B. festverdrahtet) oder temporär (flüchtig) konfiguriert (z. B. programmiert) ist, um auf spezifizierte Weise zu arbeiten oder um einen Teil oder alle der hier beschriebenen Operationen durchzuführen. In Hinsicht auf Beispiele, bei denen Module temporär konfiguriert sind, muss nicht jedes der Module zu einem Zeitpunkt instanziiert ist. Wenn zum Beispiel die Module einen Allzweck-Hardware-Prozessor umfassen, der mit Hilfe von Software konfiguriert ist, kann der Allzweck-Hardware-Prozessor zu verschiedenen Zeitpunkten als entsprechende verschiedene Module konfiguriert sein. Software kann dementsprechend einen Hardware-Prozessor zum Beispiel dafür konfigurieren, zu einem Zeitpunkt ein bestimmtes Modul zu bilden und zu einem anderen Zeitpunkt ein anderes Modul zu bilden. Module können außerdem Software- oder Firmware-Module sein, die dazu dienen, die hier beschriebenen Methodologien auszuführen.
  • Schaltkreise oder Schaltungen können, wenn in diesem Dokument verwendet, zum Beispiel einzeln oder in beliebiger Kombination festverdrahtete Schaltkreise, programmierbare Schaltkreise wie beispielsweise Computerprozessoren, die ein oder mehrere individuelle Anweisungen verarbeitende Kerne umfassen, Zustandsmaschinenschaltkreise und/oder Firmware, die Anweisungen speichert, die durch programmierbare Schaltkreise ausgeführt wird, umfassen. Die Schaltungen, Schaltkreise oder Module können gemeinsam oder einzeln als Schaltkreise umgesetzt sein, die einen Teil eines größeren Systems bilden, zum Beispiel eine integrierte Schaltung (IC), ein System auf einem Chip (SoC), Desktop-Computer, Laptops, Tablets, Server, Smartphones usw.
  • 7 ist ein Blockdiagramm, das eine Maschine in der beispielhaften Form eines Computersystems 700 gemäß einem Ausführungsbeispiel darstellt, in dem in Satz oder eine Abfolge von Anweisungen ausgeführt werden kann, um die Maschine zu veranlassen, eine der hier beschriebenen Methodologien durchzuführen. Bei alternativen Ausführungsformen arbeitet die Maschine als eigenständiges Gerät oder kann mit anderen Maschinen verbunden sein (z. B. vernetzt). Bei einer vernetzten Verwendung kann die Maschine in der Funktion von entweder einer Server- oder einer Client-Maschine in Server-Client-Netzwerkumgebungen arbeiten oder kann als eine gleichrangige Maschine in Peer-to-Peer-(oder verteilten) Netzwerkumgebungen dienen. Die Maschine kann ein Head-Mounted-Display, ein am Körper tragbares Gerät, ein Personalcomputer (PC), ein Tablet, ein Hybrid-Tablet, ein PDA, ein Mobiltelefon oder eine beliebige Maschine sein, die in der Lages ist, Anweisungen, die Aktionen spezifizieren, die von der Maschine vorgenommen werden sollen, (aufeinanderfolgend oder auf andere Weise) auszuführen. Des Weiteren soll der Begriff „Maschine“, auch wenn nur eine einzige Maschine dargestellt ist, als jede Ansammlung von Maschinen enthaltend gelten, die einzeln oder gemeinsam einen Satz (oder mehrere Sätze) von Anweisungen ausführen, um eine oder mehrere der hier beschriebenen Methodologien durchzuführen. In ähnlicher Weise soll der Ausdruck „prozessorbasiertes System“ als jeden Satz aus einer oder mehreren Maschinen enthaltend gelten, die von einem Prozessor (z. B. einem Computer) gesteuert oder betrieben werden, um einzeln oder gemeinsam Anweisungen ausführen, um eine oder mehrere der hier beschriebenen Methodologien durchzuführen.
  • Das beispielhafte Computersystem 700 enthält mindestens einen Prozessor 702 (z. B. eine zentrale Verarbeitungseinheit (CPU), eine Grafikverarbeitungseinheit (GPU) oder beides, Prozessorkerne, Computerknoten usw.), einen Hauptspeicher 704 und einen statischen Speicher 706, die über einen Link 708 (z. B. Bus) miteinander kommunizieren. Das Computersystem 700 kann ferner eine Videoanzeigeeinheit 710, ein alphanumerisches Eingabegerät 712 (z. B. eine Tastatur) und ein Benutzerschnittstellen-(UI-)Navigationsgerät 714 (z. B. eine Maus) enthalten. Bei einer Ausführungsform sind die Videoanzeigeeinheit 710, das Eingabegerät 712 und das UI-Navigationsgerät 714 in ein Touch-Screen-Display eingebunden. Das Computersystem 700 kann zusätzlich ein Speichergerät 716 (z. B. eine Laufwerkeinheit), ein Signalerzeugungsgerät 718 (z. B. einen Lautsprecher), ein Netzwerkschnittstellengerät 720 und einen oder mehrere Sensoren (nicht dargestellt), wie beispielsweise einen GPS-Sensor, Kompass, Beschleunigungsmesser, Gyrometer, Magnetometer oder einen anderen Sensor, enthalten.
  • Das Speichergerät 716 enthält ein maschinenlesbares Medium 722, auf dem ein oder mehrere Sätze von Datenstrukturen und Anweisungen 724 (z. B. Software) gespeichert sind, die eine oder mehrere der hier beschriebenen Methodologien verkörpern oder von diesen verwendet werden. Die Anweisungen 724 können sich während ihrer Ausführung durch das Computersystem 700 auch vollständig oder zumindest teilweise in dem Hauptspeicher 704, dem statischen Speicher 706 und/oder in dem Prozessor 702 befinden, wobei der Hauptspeicher 704, der statische Speicher 706 und der Prozessor 702 auch maschinenlesbare Medien bilden.
  • Obwohl das maschinenlesbare Medium 722 bei einer beispielhaften Ausführungsform als einzelnes Medium dargestellt ist, kann der Ausdruck „maschinenlesbares Medium“ ein einzelnes Medium oder mehrere Medien enthalten (z. B. eine zentralisierte oder verteilte Datenbank und/oder zugeordnete Caches und Server), die die eine oder die mehreren Anweisungen 724 speichern. Der Ausdruck „maschinenlesbares Medium“ soll außerdem als jedes dinghafte Medium enthaltend gelten, das zum Speichern, Codieren oder Tragen von Anweisungen für das Ausführen durch die Maschine in der Lage ist, welche die Maschine veranlassen, eine oder mehrere Methodologien der vorliegenden Offenbarung durchzuführen, oder das in der Lage ist, Datenstrukturen zu speichern, zu codieren oder zu tragen, die von derartigen Anweisungen verwendet werden oder damit verbunden sind. Der Ausdruck „maschinenlesbares Medium“ soll dementsprechend derart gelten, dass er Festkörperspeicher und optische und magnetische Medien enthält, aber nicht darauf beschränkt ist. Spezifische Beispiele für maschinenlesbare Medien sind u. a. nicht-flüchtiger Speicher, insbesondere beispielsweise Halbleiterspeichergeräte (z. B. EPROM, EEPROM) und Flash-Speichergeräte, Magnetplatten wie beispielsweise interne Festplatten und entnehmbare Platten, magnetoptische Platten und CD-ROM- und DVD-ROM-Platten, ohne jedoch darauf beschränkt zu sein.
  • Die Anweisungen 724 können ferner über ein Kommunikationsnetzwerk 726 mit Hilfe eines Übertragungsmediums über das Netzwerkschnittstellengerät 720 unter Verwendung eines beliebigen von einer Anzahl allgemein bekannter Übertragungsprotokolle (z. B. HTTP) übertragen oder empfangen werden. Beispiele für Kommunikationsnetzwerke sind ein lokales Netzwerk (LAN), ein Weitverkehrsnetz (WAN), das Internet, Mobilfunknetze, analoge Telefonnetzwerke und drahtlose Datennetzwerke (z. B. Bluetooth-, WLAN-, 3G- und 4G LTE/LTE-A- oder WiMAX-Netzwerke). Der Ausdruck „Übertragungsmedium“ soll als jedes dinghafte Medium enthaltend gelten, das in der Lage ist, Anweisungen für das Ausführen durch die Maschine zu speichern, zu codieren oder zu tragen, und enthält digitale oder analoge Kommunikationssignale, oder ein anderes dinghaftes Medium, um die Kommunikation derartiger Software zu unterstützen.
  • Weitere Anmerkungen & Beispiele:
  • Beispiel 1 ist ein Head-Mounted-Display-System zum Bereitstellen von Überleitungen in die / aus der virtuellen Realität, wobei das System Folgendes umfasst: eine Maschine für Überleitungen in die / aus der virtuellen Realität, um ein Auslöseereignis zu erkennen, das von einem Benutzer des Head-Mounted-Displays eingeleitet wird; eine Sensoranordnung, um eine Bedingung der Umgebung der realen Welt zu bestimmen; und einen Grafiktreiber, um Inhalt der virtuellen Realität in einem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert.
  • Bei Beispiel 2 enthält der Gegenstand von Beispiel 1 optional, dass die Maschine für Überleitungen in die/ aus der virtuellen Realität dafür vorgesehen ist, einen vom einem Benutzer geäußerten Sprachbefehl zu erkennen, um das Auslöseereignis zu erkennen.
  • Bei Beispiel 3 enthält der Gegenstand von einem oder mehreren der Beispiele 1 bis 2 optional, dass die Maschine für Überleitungen in die / aus der virtuellen Realität dafür vorgesehen ist, eine vom Benutzer vorgenommene Geste zu erkennen, um das Auslöseereignis zu erkennen.
  • Bei Beispiel 4 enthält der Gegenstand von einem oder mehreren der Beispiele 1 bis 3 optional, dass die Maschine für Überleitungen in die / aus der virtuellen Realität dafür vorgesehen ist, eine vom Benutzer durchgeführte Benutzerschnittstelleninteraktion zu erkennen, um das Auslöseereignis zu erkennen.
  • Bei Beispiel 5 enthält der Gegenstand von einem oder mehreren der Beispiele 1 bis 4 optional, dass die Maschine für Überleitungen in die / aus der virtuellen Realität dafür vorgesehen ist, ein vom Benutzer durchgeführtes Drücken eines Knopfes zu erkennen, um das Auslöseereignis zu erkennen.
  • Bei Beispiel 6 enthält der Gegenstand von einem oder mehreren der Beispiele 1 bis 5 optional, dass, um die Bedingung der Umgebung der realen Welt zu bestimmen, die Sensoranordnung dafür vorgesehen ist, auf Sensordaten zuzugreifen, die Leuchtdichtedaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 7 enthält der Gegenstand von Beispiel 6 optional, dass die Leuchtdichtedaten von einer Kameraanordnung erhalten werden.
  • Bei Beispiel 8 enthält der Gegenstand von einem oder mehreren der Beispiele 6 bis 7 optional, dass die Leuchtdichtedaten von einem Lichtmesser erhalten werden.
  • Bei Beispiel 9 enthält der Gegenstand von einem oder mehreren der Beispiele 6 bis 8 optional, dass die Leuchtdichtedaten von einem Lichtstärkesensor erhalten werden.
  • Bei Beispiel 10 enthält der Gegenstand von einem oder mehreren der Beispiele 1 bis 9 optional, dass, um die Bedingung der Umgebung der realen Welt zu bestimmen, die Sensoranordnung dafür vorgesehen ist, auf Sensordaten zuzugreifen, die Geräuschdaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 11 enthält der Gegenstand von Beispiel 10 optional, dass die Geräuschdaten von einem Mikrofon des Head-Mounted-Displays erhalten werden.
  • Bei Beispiel 12 enthält der Gegenstand von einem oder mehreren der Beispiele 1 bis 11 optional, dass der Grafiktreiber, um Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert, für Folgendes vorgesehen ist: Bestimmen einer Position und Intensität einer Lichtquelle der realen Welt in einer Umgebung um den Benutzer und Darstellen eines hellen Bereichs im Inhalt der virtuellen Realität an einer Position, die der Position der Lichtquelle der realen Welt entspricht.
  • Bei Beispiel 13 enthält der Gegenstand von Beispiel 12 optional, dass der Grafiktreiber dafür vorgesehen ist, den hellen Bereich von einem ersten Helligkeitspegel auf einen zweiten Helligkeitspegel anzupassen, wobei der zweite Helligkeitspegel näher an der Intensität der Lichtquelle der realen Welt ist als der erste Helligkeitspegel.
  • Bei Beispiel 14 enthält der Gegenstand von Beispiel 13 optional, dass, um den hellen Bereich anzupassen, der Grafiktreiber dafür vorgesehen ist, den hellen Bereich vom ersten Helligkeitspegel auf den zweiten Helligkeitspegel anzupassen.
  • Bei Beispiel 15 enthält der Gegenstand von einem oder mehreren der Beispiele 12 bis 14 optional, dass die VR-Überleitungsmaschine dafür vorgesehen ist, eine Farbe der Lichtquelle der realen Welt zu bestimmen, und wobei der Grafiktreiber dafür vorgesehen ist, den hellen Bereich mit Hilfe einer Farbe darzustellen, die der Farbe der Lichtquelle der realen Welt ähnelt.
  • Bei Beispiel 16 enthält der Gegenstand von einem oder mehreren der Beispiele 12 bis 15 optional, dass der Grafiktreiber dafür vorgesehen ist, den Inhalt der virtuellen Realität über eine Zeitspanne schrittweise zu dimmen, wobei das Dimmen bewirkt, dass anfänglich aufgehellter Inhalt der virtuellen Realität gedimmt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 17 enthält der Gegenstand von einem oder mehreren der Beispiele 1 bis 16 optional, dass, um den Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert, der Grafiktreiber für Folgendes vorgesehen ist: Bestimmen eines Helligkeitspegels einer Umgebung um den Benutzer und Dimmen des Inhalts der virtuellen Realität näher zum Helligkeitspegel der Umgebung der realen Welt, wenn der Helligkeitspegel der Umgebung der realen Welt geringer als ein Helligkeitspegel des Inhalts der virtuellen Realität ist.
  • Bei Beispiel 18 enthält der Gegenstand von Beispiel 17 optional, dass, um den Inhalt der virtuellen Realität zu dimmen, der Grafiktreiber dafür vorgesehen ist, den Inhalt der virtuellen Realität über eine Zeitspanne zu dimmen.
  • Bei Beispiel 19 enthält der Gegenstand von Beispiel 18 optional, dass die Zeitspanne mindestens fünf Minuten beträgt.
  • Bei Beispiel 20 enthält der Gegenstand von einem oder mehreren der Beispiele 17 bis 19 optional, dass der Grafiktreiber dafür vorgesehen ist, den Inhalt der virtuellen Realität über eine Zeitspanne schrittweise aufzuhellen, wobei das Aufhellen bewirkt, dass anfänglich gedimmter Inhalt der virtuellen Realität aufgehellt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 21 enthält der Gegenstand von einem oder mehreren der Beispiele 1 bis 20 optional, dass, um den Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert, die Maschine für Überleitungen in die / aus der virtuellen Realität für Folgendes vorgesehen ist: Bestimmen eines Geräuschpegels einer Umgebung um den Benutzer und schrittweises Erhöhen eines Geräuschpegels des Inhalts der virtuellen Realität näher zum Geräuschpegel der Umgebung um den Benutzer, wenn der Geräuschpegel der Umgebung der realen Welt höher ist als der Geräuschpegel des Inhalts der virtuellen Realität.
  • Beispiel 22 ist ein Verfahren für Überleitungen in die / aus der virtuellen Realität, wobei das Verfahren Folgendes umfasst: Erkennen eines von einem Benutzer eines Head-Mounted-Displays eingeleiteten Auslöseereignisses am Head-Mounted-Display; Bestimmen einer Bedingung der Umgebung der realen Welt und Darstellen von Inhalt der virtuellen Realität in einem Format, das auf der Bedingung der Umgebung der realen Welt basiert, durch ein Head-Mounted-Display.
  • Bei Beispiel 23 enthält der Gegenstand von Beispiel 22 optional, dass das Erkennen des Auslöseereignisses das Erkennen eines vom Benutzer geäußerten Sprachbefehls umfasst.
  • Bei Beispiel 24 enthält der Gegenstand von einem oder mehreren der Beispiele 22 bis 23 optional, dass das Erkennen des Auslöseereignisses das Erkennen einer vom Benutzer vorgenommenen Geste umfasst.
  • Bei Beispiel 25 enthält der Gegenstand von einem oder mehreren der Beispiele 22 bis 24 optional, dass das Erkennen des Auslöseereignisses das Erkennen einer vom Benutzer durchgeführten Schnittstelleninteraktion umfasst.
  • Bei Beispiel 26 enthält der Gegenstand von einem oder mehreren der Beispiele 22 bis 25 optional, dass das Erkennen des Auslöseereignisses das Erkennen eines vom Benutzer durchgeführten Drückens eines Knopfes umfasst.
  • Bei Beispiel 27 enthält der Gegenstand von einem oder mehreren der Beispiele 22 bis 26 optional, dass das Bestimmen der Bedingung der Umgebung der realen Welt das Zugreifen auf Sensordaten umfasst, die Leuchtdichtedaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 28 enthält der Gegenstand von Beispiel 27 optional, dass die Leuchtdichtedaten von einer Kameraanordnung erhalten werden.
  • Bei Beispiel 29 enthält der Gegenstand von einem oder mehreren der Beispiele 27 bis 28 optional, dass die Leuchtdichtedaten von einem Lichtmesser erhalten werden.
  • Bei Beispiel 30 enthält der Gegenstand von einem oder mehreren der Beispiele 27 bis 29 optional, dass die Leuchtdichtedaten von einem Lichtstärkesensor erhalten werden.
  • Bei Beispiel 31 enthält der Gegenstand von einem oder mehreren der Beispiele 22 bis 30 optional, dass das Bestimmen der Bedingung der Umgebung der realen Welt das Zugreifen auf Sensordaten umfasst, die Geräuschdaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 32 enthält der Gegenstand von Beispiel 31 optional, dass die Geräuschdaten von einem Mikrofon erhalten werden, das mit dem Head-Mounted-Display gekoppelt ist.
  • Bei Beispiel 33 enthält der Gegenstand von einem oder mehreren der Beispiele 22 bis 32 optional, dass das Darstellen des Inhalts der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfasst: Bestimmen einer Position und einer Intensität einer Lichtquelle der realen Welt in einer Umgebung um den Benutzer und Darstellen eines hellen Bereichs in dem Inhalt der virtuellen Realität an einer Position, die der Position der Lichtquelle der realen Welt entspricht.
  • Bei Beispiel 34 enthält der Gegenstand von Beispiel 33 optional das Anpassen des hellen Bereichs von einem ersten Helligkeitspegel auf einen zweiten Helligkeitspegel, wobei der zweite Helligkeitspegel der Intensität der Lichtquelle der realen Welt näher ist als der erste Helligkeitspegel.
  • Bei Beispiel 35 enthält der Gegenstand von Beispiel 34 optional, dass das Anpassen des hellen Bereichs Folgendes umfasst: Anpassen des hellen Bereichs vom ersten Helligkeitspegel auf den zweiten Helligkeitspegel über eine Zeitspanne.
  • Bei Beispiel 36 enthält der Gegenstand von einem oder mehreren der Beispiele 33 bis 35 optional das Bestimmen einer Farbe der Lichtquelle der realen Welt und das Darstellen des hellen Bereichs mit Hilfe einer Farbe, die der Farbe der Lichtquelle der realen Welt ähnelt.
  • Bei Beispiel 37 enthält der Gegenstand von einem oder mehreren der Beispiele 33 bis 36 optional das schrittweise Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne, wobei das Dimmen bewirkt, dass anfänglich aufgehellter Inhalt der virtuellen Realität gedimmt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 38 enthält der Gegenstand von einem oder mehreren der Beispiele 22 bis 37 optional, dass das Darstellen des Inhalts der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfasst: Bestimmen eines Helligkeitspegels einer Umgebung um den Benutzer und Dimmen des Inhalts der virtuellen Realität näher zum Helligkeitspegel der Umgebung der realen Welt, wenn der Helligkeitspegel der Umgebung der realen Welt geringer als der Helligkeitspegel des Inhalts der virtuellen Realität ist.
  • Bei Beispiel 39 enthält der Gegenstand von Beispiel 38 optional, dass das Dimmen des Inhalts der virtuellen Realität Folgendes umfasst: schrittweises Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne.
  • Bei Beispiel 40 enthält der Gegenstand von Beispiel 39 optional, dass die Zeitspanne mindestens fünf Minuten beträgt.
  • Bei Beispiel 41 enthält der Gegenstand von einem oder mehreren der Beispiele 38 bis 40 optional das schrittweise Aufhellen des Inhalts der virtuellen Realität über eine Zeitspanne, wobei das Aufhellen bewirkt, dass anfänglich gedimmter Inhalt der virtuellen Realität aufgehellt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 42 enthält der Gegenstand von einem oder mehreren der Beispiele 22 bis 41 optional, dass das Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfasst: Bestimmen eines Geräuschpegels einer Umgebung um den Benutzer und schrittweises Erhöhen eines Geräuschpegels des Inhalts der virtuellen Realität näher zum Geräuschpegel der Umgebung um den Benutzer, wenn der Geräuschpegel der Umgebung der realen Welt höher als der Geräuschpegel des Inhalts der virtuellen Realität ist.
  • Beispiel 43 ist mindestens ein maschinenlesbares Medium, das Anweisungen enthält, die bei Ausführung durch eine Maschine die Maschine veranlassen, eines der Verfahren der Beispiele 22 bis 42 durchzuführen.
  • Beispiel 44 ist eine Vorrichtung, die Mittel zum Durchführen der Verfahren der Beispiele 22 bis 42 umfasst.
  • Beispiel 45 ist eine Vorrichtung für Überleitungen in die / aus der virtuellen Welt, wobei die Vorrichtung Folgendes umfasst: Mittel zum Erkennen eines vom Benutzer eines Head-Mounted-Displays eingeleiteten Auslöseereignisses am Head-Mounted-Display; Mittel zum Bestimmen einer Bedingung der Umgebung der realen Welt und Mittel zum Darstellen von Inhalt der virtuellen Realität in einem Format, das auf der Bedingung der Umgebung der realen Welt basiert, durch ein Head-Mounted-Display.
  • Bei Beispiel 46 enthält der Gegenstand von Beispiel 45 optional, dass die Mittel zum Erkennen des Auslöseereignisses Mittel zum Erkennen eines vom Benutzer geäußerten Sprachbefehls umfassen.
  • Bei Beispiel 47 enthält der Gegenstand von einem oder mehreren der Beispiele 45 bis 46 optional, dass die Mittel zum Erkennen des Auslöseereignisses Mittel zum Erkennen einer vom Benutzer vorgenommenen Geste umfassen.
  • Bei Beispiel 48 enthält der Gegenstand von einem oder mehreren der Beispiele 45 bis 47 optional, dass die Mittel zum Erkennen des Auslöseereignisses Mittel zum Erkennen einer vom Benutzer durchgeführten Schnittstelleninteraktion umfassen.
  • Bei Beispiel 49 enthält der Gegenstand von einem oder mehreren der Beispiele 45 bis 47 optional, dass die Mittel zum Erkennen des Auslöseereignisses Mittel zum Erkennen eines vom Benutzer durchgeführten Drückens eines Knopfes umfassen.
  • Bei Beispiel 50 enthält der Gegenstand von einem oder mehreren der Beispiele 45 bis 49 optional, dass die Mittel zum Erkennen der Bedingung der Umgebung der realen Welt Mittel zum Zugreifen auf Sensordaten umfassen, die Leuchtdichtedaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 51 enthält der Gegenstand von Beispiel 50 optional, dass die Leuchtdichtedaten von einer Kameraanordnung erhalten werden.
  • Bei Beispiel 52 enthält der Gegenstand von einem oder mehreren der Beispiele 50 bis 51 optional, dass die Leuchtdichtedaten von einem Lichtmesser erhalten werden.
  • Bei Beispiel 53 enthält der Gegenstand von einem oder mehreren der Beispiele 50 bis 52 optional, dass die Leuchtdichtedaten von einem Lichtstärkesensor erhalten werden.
  • Bei Beispiel 54 enthält der Gegenstand von einem oder mehreren der Beispiele 45 bis 53 optional, dass die Mittel zum Bestimmen der Bedingung der Umgebung der realen Welt Mittel zum Zugreifen auf Sensordaten umfassen, die Geräuschdaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 55 enthält der Gegenstand von Beispiel 54 optional, dass die Geräuschdaten von einem Mikrofon erhalten werden, das mit dem Head-Mounted-Display gekoppelt ist.
  • Bei Beispiel 56 enthält der Gegenstand von einem oder mehreren der Beispiele 45 bis 55 optional, dass die Mittel zum Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfassen: Mittel zum Bestimmen einer Position und einer Intensität einer Lichtquelle der realen Welt in einer Umgebung um den Benutzer und Mittel zum Darstellen eines hellen Bereichs in dem Inhalt der virtuellen Realität an einer Position, die der Position der Lichtquelle der realen Welt entspricht.
  • Bei Beispiel 57 enthält der Gegenstand von Beispiel 56 optional Mittel zum Anpassen des hellen Bereichs von einem ersten Helligkeitspegel auf einen zweiten Helligkeitspegel, wobei der zweite Helligkeitspegel der Intensität der Lichtquelle der realen Welt näher ist als der erste Helligkeitspegel.
  • Bei Beispiel 58 enthält der Gegenstand von Beispiel 57 optional, dass die Mittel zum Anpassen des hellen Bereichs Folgendes umfassen: Mittel zum Anpassen des hellen Bereichs vom ersten Helligkeitspegel auf den zweiten Helligkeitspegel über eine Zeitspanne.
  • Bei Beispiel 59 enthält der Gegenstand von einem oder mehreren der Beispiele 56 bis 58 optional Mittel zum Bestimmen einer Farbe der Lichtquelle der realen Welt und Mittel zum Darstellen des hellen Bereichs mit Hilfe einer Farbe, die der Farbe der Lichtquelle der realen Welt ähnlich ist.
  • Bei Beispiel 60 enthält der Gegenstand von einem oder mehreren der Beispiele 56 bis 59 optional Mittel zum schrittweisen Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne, wobei das Dimmen bewirkt, dass anfänglich aufgehellter Inhalt der virtuellen Realität gedimmt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 61 enthält der Gegenstand von einem oder mehreren der Beispiele 45 bis 60 optional, dass die Mittel zum Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfassen: Mittel zum Bestimmen eines Helligkeitspegels einer Umgebung um den Benutzer und Mittel zum Dimmen des Inhalts der virtuellen Realität näher zum Helligkeitspegel der Umgebung der realen Welt, wenn der Helligkeitspegel der Umgebung der realen Welt geringer als ein Helligkeitspegel des Inhalts der virtuellen Realität ist.
  • Bei Beispiel 62 enthält der Gegenstand von Beispiel 61 optional, dass die Mittel zum Dimmen des Inhalts der virtuellen Realität Folgendes umfassen: Mittel zum schrittweisen Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne.
  • Bei Beispiel 63 enthält der Gegenstand von Beispiel 62 optional, dass die Zeitspanne mindestens fünf Minuten beträgt.
  • Bei Beispiel 64 enthält der Gegenstand von einem oder mehreren der Beispiele 61 bis 63 optional Mittel zum schrittweisen Aufhellen des Inhalts der virtuellen Realität über eine Zeitspanne, wobei das Aufhellen bewirkt, dass anfänglich gedimmter Inhalt der virtuellen Realität aufgehellt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 65 enthält der Gegenstand von einem oder mehreren der Beispiele 45 bis 64 optional, dass die Mittel zum Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfassen: Mittel zum Bestimmen eines Geräuschpegels einer Umgebung um den Benutzer und Mittel zum schrittweisen Erhöhen eines Geräuschpegels des Inhalts der virtuellen Realität näher zum Geräuschpegel der Umgebung um den Benutzer, wenn der Geräuschpegel der Umgebung der realen Welt höher als der Geräuschpegel des Inhalts der virtuellen Realität ist.
  • Beispiel 66 ist mindestens ein maschinenlesbares Medium, das Anweisungen für Überleitungen in die / aus der virtuellen Realität enthält, die bei Ausführung durch eine Maschine die Maschine veranlassen, die Operationen durchzuführen, die Folgendes umfassen: Erkennen eines von einem Benutzer eines Head-Mounted-Displays eingeleiteten Auslöseereignisses am Head-Mounted-Display; Bestimmen einer Bedingung der Umgebung der realen Welt und Darstellen von Inhalt der virtuellen Realität in einem Format, das auf der Bedingung der Umgebung der realen Welt basiert, durch ein Head-Mounted-Display.
  • Bei Beispiel 67 enthält der Gegenstand von Beispiel 66 optional, dass das Erkennen des Auslöseereignisses das Erkennen eines vom Benutzer geäußerten Sprachbefehls umfasst.
  • Bei Beispiel 68 enthält der Gegenstand von einem oder mehreren der Beispiele 66 bis 67 optional, dass das Erkennen des Auslöseereignisses das Erkennen einer vom Benutzer vorgenommenen Geste umfasst.
  • Bei Beispiel 69 enthält der Gegenstand von einem oder mehreren der Beispiele 66 bis 68 optional, dass das Erkennen des Auslöseereignisses das Erkennen einer vom Benutzer durchgeführten Schnittstelleninteraktion umfasst.
  • Bei Beispiel 70 enthält der Gegenstand von einem oder mehreren der Beispiele 66 bis 69 optional, dass das Erkennen des Auslöseereignisses das Erkennen eines vom Benutzer durchgeführten Drückens eines Knopfes umfasst.
  • Bei Beispiel 71 enthält der Gegenstand von einem oder mehreren der Beispiele 66 bis 70 optional, dass das Bestimmen der Bedingung der Umgebung der realen Welt das Zugreifen auf Sensordaten umfasst, die Leuchtdichtedaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 72 enthält der Gegenstand von Beispiel 71 optional, dass die Leuchtdichtedaten von einer Kameraanordnung erhalten werden.
  • Bei Beispiel 73 enthält der Gegenstand von einem oder mehreren der Beispiele 71 bis 72 optional, dass die Leuchtdichtedaten von einem Lichtmesser erhalten werden.
  • Bei Beispiel 74 enthält der Gegenstand von einem oder mehreren der Beispiele 71 bis 73 optional, dass die Leuchtdichtedaten von einem Lichtstärkesensor erhalten werden.
  • Bei Beispiel 75 enthält der Gegenstand von einem oder mehreren der Beispiele 66 bis 74 optional, dass das Bestimmen der Bedingung der Umgebung der realen Welt das Zugreifen auf Sensordaten umfasst, die Geräuschdaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 76 enthält der Gegenstand von Beispiel 75 optional, dass die Geräuschdaten von einem Mikrofon erhalten werden, das mit dem Head-Mounted-Display gekoppelt ist.
  • Bei Beispiel 77 enthält der Gegenstand von einem oder mehreren der Beispiele 66 bis 76 optional, dass das Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfasst: Bestimmen einer Position und einer Intensität einer Lichtquelle der realen Welt in einer Umgebung um den Benutzer und Darstellen eines hellen Bereichs in dem Inhalt der virtuellen Realität an einer Position, die der Position der Lichtquelle der realen Welt entspricht
  • Bei Beispiel 78 enthält der Gegenstand von Beispiel 77 optional Anweisungen zum Durchführen der Operationen, die Folgendes umfassen: Anpassen des hellen Bereichs von einem ersten Helligkeitspegel auf einen zweiten Helligkeitspegel, wobei der zweite Helligkeitspegel der Intensität der Lichtquelle der realen Welt näher ist als der erste Helligkeitspegel.
  • Bei Beispiel 79 enthält der Gegenstand von Beispiel 78 optional, dass das Anpassen des hellen Bereichs Folgendes umfasst: Anpassen des hellen Bereichs vom ersten Helligkeitspegel auf den zweiten Helligkeitspegel über eine Zeitspanne.
  • Bei Beispiel 80 enthält der Gegenstand von einem oder mehreren der Beispiele 77 bis 79 optional Anweisungen zum Durchführen der Operationen, die Folgendes umfassen: Bestimmen einer Farbe der Lichtquelle der realen Welt und Darstellen des hellen Bereichs mit Hilfe einer Farbe, die der Farbe der Lichtquelle der realen Welt ähnelt.
  • Bei Beispiel 81 enthält der Gegenstand von einem oder mehreren der Beispiele 77 bis 80 optional Anweisungen zum Durchführen von Operationen, die Folgendes umfassen: schrittweises Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 82 enthält der Gegenstand von einem oder mehreren der Beispiele 66 bis 81 optional, dass das Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfasst: Bestimmen eines Helligkeitspegels einer Umgebung um den Benutzer und Dimmen des Inhalts der virtuellen Realität näher zum Helligkeitspegel der Umgebung der realen Welt, wenn der Helligkeitspegel der Umgebung der realen Welt geringer als ein Helligkeitspegel des Inhalts der virtuellen Realität ist.
  • Bei Beispiel 83 enthält der Gegenstand von Beispiel 82 optional, dass das Dimmen des Inhalts der virtuellen Realität Folgendes umfasst: schrittweises Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne.
  • Bei Beispiel 84 enthält der Gegenstand von Beispiel 83 optional, dass die Zeitspanne mindestens fünf Minuten beträgt.
  • Bei Beispiel 85 enthält der Gegenstand von einem oder mehreren der Beispiele 82 bis 84 optional Anweisungen zum Durchführen der Operationen, die Folgendes umfassen: Aufhellen des Inhalts der virtuellen Realität über eine Zeitspanne, wobei das Aufhellen bewirkt, dass anfänglich gedimmter Inhalt der virtuellen Realität aufgehellt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 86 enthält der Gegenstand von einem oder mehreren der Beispiele 66 bis 85 optional, dass das Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfasst: Bestimmen eines Geräuschpegels einer Umgebung um den Benutzer und schrittweises Erhöhen eines Geräuschpegels des Inhalts der virtuellen Realität näher zum Geräuschpegel der Umgebung um den Benutzer, wenn der Geräuschpegel der Umgebung der realen Welt höher als der Geräuschpegel des Inhalts der virtuellen Realität ist.
  • Beispiel 87 ist ein Head-Mounted-Display-System zum Bereitstellen von Überleitungen in die / aus der virtuellen Realität, wobei das System Folgendes umfasst: ein Prozessorteilsystem und mindestens ein maschinenlesbares Medium, das Anweisungen enthält, die bei Ausführung durch das Prozessorteilsystem das Prozessorteilsystem veranlassen, Folgendes durchzuführen: Erkennen eines von einem Benutzer des Head-Mounted-Displays eingeleiteten Auslöseereignisses; Bestimmen einer Bedingung der Umgebung der realen Welt und Darstellen von Inhalt der virtuellen Realität in einem Format, das auf der Bedingung der Umgebung der realen Welt basiert.
  • Bei Beispiel 88 enthält der Gegenstand von Beispiel 87 optional, dass das Prozessorteilsystem dafür vorgesehen ist, einen vom Benutzer geäußerten Sprachbefehl zu erkennen, um das Auslöseereignis zu erkennen.
  • Bei Beispiel 89 enthält der Gegenstand von einem oder mehreren der Beispiele 87 bis 88 optional, dass das Prozessorteilsystem dafür vorgesehen ist, eine vom Benutzer vorgenommene Geste zu erkennen, um das Auslöseereignis zu erkennen.
  • Bei Beispiel 90 enthält der Gegenstand von einem oder mehreren der Beispiele 87 bis 89 optional, dass das Prozessorteilsystem dafür vorgesehen ist, eine vom Benutzer durchgeführte Schnittstelleninteraktion zu erkennen, um das Auslöseereignis zu erkennen.
  • Bei Beispiel 91 enthält der Gegenstand von einem oder mehreren der Beispiele 87 bis 90 optional, dass das Prozessorteilsystem dafür vorgesehen ist, ein vom Benutzer durchgeführtes Drückens eines Knopfes zu erkennen, um das Auslöseereignis zu erkennen.
  • Bei Beispiel 92 enthält der Gegenstand von einem oder mehreren der Beispiele 87 bis 91 optional, dass, um die Bedingung der Umgebung der realen Welt zu bestimmen, das Prozessorteilsystem dafür vorgesehen ist, auf Sensordaten zuzugreifen, die Leuchtdichtedaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 93 enthält der Gegenstand von Beispiel 92 optional, dass die Leuchtdichtedaten von einer Kameraanordnung erhalten werden.
  • Bei Beispiel 94 enthält der Gegenstand von einem oder mehreren der Beispiele 92 bis 93 optional, dass die Leuchtdichtedaten von einem Lichtmesser erhalten werden.
  • Bei Beispiel 95 enthält der Gegenstand von einem oder mehreren der Beispiele 92 bis 94 optional, dass die Leuchtdichtedaten von einem Lichtstärkesensor erhalten werden.
  • Bei Beispiel 96 enthält der Gegenstand von einem oder mehreren der Beispiele 87 bis 95 optional, dass, um die Bedingung der Umgebung der realen Welt zu bestimmen, das Prozessorteilsystem dafür vorgesehen ist, auf Sensordaten zuzugreifen, die Geräuschdaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  • Bei Beispiel 97 enthält der Gegenstand von Beispiel 96 optional, dass die Geräuschdaten von einem Mikrofon erhalten werden, das mit dem Head-Mounted-Display gekoppelt ist.
  • Bei Beispiel 98 enthält der Gegenstand von einem oder mehreren der Beispiele 87 bis 97 optional, dass, um Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert, das Prozessorteilsystem für Folgendes vorgesehen ist: Bestimmen einer Position und einer Intensität einer Lichtquelle der realen Welt in einer Umgebung um den Benutzer und Darstellen eines hellen Bereichs im Inhalt der virtuellen Realität, der der Position der Lichtquelle in der realen Welt entspricht.
  • Bei Beispiel 99 enthält der Gegenstand von Beispiel 98 optional, dass das Prozessorteilsystem dafür vorgesehen ist, den hellen Bereich von einem ersten Helligkeitspegel auf einen zweiten Helligkeitspegel anzupassen, wobei der zweite Helligkeitspegel der Intensität der Lichtquelle der realen Welt näher ist als der erste Helligkeitspegel.
  • Bei Beispiel 100 enthält der Gegenstand von Beispiel 99 optional, dass, um den hellen Bereich anzupassen, das Prozessorteilsystem dafür vorgesehen ist, den hellen Bereich vom ersten Helligkeitspegel auf den zweiten Helligkeitspegel über eine Zeitspanne anzupassen.
  • Bei Beispiel 101 enthält der Gegenstand von einem oder mehreren der Beispiele 98 bis 100 optional, dass das Prozessorteilsystem dafür vorgesehen ist, eine Farbe der Lichtquelle der realen Welt zu bestimmen und den hellen Bereich mit Hilfe einer Farbe dazustellen, die der Farbe der Lichtquelle der realen Welt ähnelt.
  • Bei Beispiel 102 enthält der Gegenstand von einem oder mehreren der Beispiele 98 bis 101 optional, dass das Prozessorteilsystem dafür vorgesehen ist, den Inhalt der virtuellen Realität über eine Zeitspanne schrittweise zu dimmen, wobei das Dimmen bewirkt, dass anfänglich aufgehellter Inhalt der virtuellen Realität gedimmt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 103 enthält der Gegenstand von einem oder mehreren der Beispiele 87 bis 102 optional, dass, um Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert, das Prozessorteilsystem für Folgendes vorgesehen ist: Bestimmen eines Helligkeitspegel einer Umgebung um den Benutzer und Dimmen des Inhalts der virtuellen Realität näher zum Helligkeitspegel der Umgebung der realen Welt, wenn der Helligkeitspegel der Umgebung der realen Welt geringer als der Helligkeitspegel des Inhalts der virtuellen Realität ist.
  • Bei Beispiel 104 enthält der Gegenstand von Beispiel 103 optional, dass, um den Inhalt der virtuellen Realität zu dimmen, das Prozessorteilsystem dafür vorgesehen ist, den Inhalt der virtuellen Realität über eine Zeitspanne schrittweise zu dimmen.
  • Bei Beispiel 105 enthält der Gegenstand von Beispiel 104 optional, dass die Zeitspanne mindestens fünf Minuten beträgt.
  • Bei Beispiel 106 enthält der Gegenstand von einem oder mehreren der Beispiele 103 bis 105 optional, dass das Prozessorteilsystem dafür vorgesehen ist, den Inhalt der virtuellen Realität über eine Zeitspanne schrittweise aufzuhellen, wobei das Aufhellen bewirkt, dass anfänglich gedimmter Inhalt der virtuellen Realität aufgehellt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  • Bei Beispiel 107 enthält der Gegenstand von einem oder mehreren der Beispiele 87 bis 106 optional, dass, um Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert, das Prozessorteilsystem für Folgendes vorgesehen ist: Bestimmen eines Geräuschpegels einer Umgebung um den Benutzer und schrittweises Erhöhen eines Geräuschpegels des Inhalts der virtuellen Realität näher zum Geräuschpegel der Umgebung um den Benutzer, wenn der Geräuschpegel der Umgebung der realen Welt höher als der Geräuschpegel des Inhalts der virtuellen Realität ist.
  • Beispiel 108 ist mindestens ein maschinenlesbares Medium, das Anweisungen enthält, die bei Ausführung durch eine Maschine die Maschine veranlassen, die Operationen von einer der Operationen der Beispiele 1 bis 107 durchzuführen.
  • Beispiel 109 ist eine Vorrichtung, die Mittel zum Durchführen einer der Operationen der Beispiele 1 bis 107 umfasst.
  • Beispiel 110 ist ein System zum Durchführen der Operationen von einem der Beispiele 1 bis 107.
  • Beispiel 111 ist ein Verfahren zum Durchführen der Operationen von einem der Beispiele 1 bis 107.
  • Die vorstehende ausführliche Beschreibung enthält Bezüge auf die dazugehörigen Zeichnungen, die einen Teil der ausführlichen Beschreibung bilden. Die Zeichnungen zeigen zur Veranschaulichung spezifische Ausführungsformen, die praktisch angewendet werden können. Diese Ausführungsformen werden im Vorliegenden auch als „Beispiele“ bezeichnet. Derartige Beispiele können Elemente zusätzlich zu den gezeigten oder beschriebenen Elementen enthalten. Es werden jedoch auch Beispiele in Betracht gezogen, welche die gezeigten oder beschriebenen Elemente enthalten. Darüber hinaus werden auch Beispiele in Betracht gezogen, die eine beliebige Kombination oder Permutation dieser gezeigten oder beschriebenen Elemente verwenden (oder einen oder mehrere Aspekte davon) entweder in Bezug auf ein konkretes Beispiel (oder einen oder mehrere Aspekte davon) oder in Bezug auf weitere Beispiel (oder einen oder mehrere Aspekte davon), die hier gezeigt oder beschrieben sind.
  • Veröffentlichungen, Patente oder Patentdokumente, auf die in diesem Dokument Bezug genommen wird, werden durch Nennung in ihrer Gesamtheit Bestandteil des Vorliegenden, als ob sie einzeln durch Nennung Bestandteil geworden wären. Im Fall von nicht einheitlichen Begriffsverwendungen in dem vorliegenden Dokument und den durch Nennung Bestandteil gewordenen Dokumenten ist die Verwendung in dem durch Nennung Aufgenommenen eine Ergänzung zu dem vorliegenden Dokument; bei unvereinbaren Uneinheitlichkeiten hat die Verwendung im vorliegenden Dokuments Vorrang.
  • In diesem Dokument werden die Ausdrücke „ein/e/r“ derart verwendet, dass sie eines oder mehr als eines einschließen, wie es in Patentdokumenten üblich ist, unabhängig von anderen Fällen oder Verwendungen von „mindestens ein/e/r“ oder „ein/e/r oder mehrere“. In diesem Dokument wird der Ausdruck „oder“ verwendet, um ein nicht ausschließendes Oder zu bezeichnen, so dass beispielsweise „A oder B“ „A, aber nicht B“, „B, aber nicht A“ und „A und B“ enthält, sofern nichts anderes angegeben ist. In den angefügten Ansprüchen werden die Ausdrücke „enthaltend“ und „in denen“ als die einfachen englischen Äquivalente zu den entsprechenden Ausdrücken „umfassend“ und „wobei“ verwendet, Ebenso sind in den folgenden Ansprüchen die Ausdrücke „enthaltend“ und „umfassend“ offen, das heißt ein System, Gerät, Gegenstand oder Prozess, das/der Elemente zusätzlich zu den nach einem derartigen Ausdruck aufgeführten in einem Anspruch enthält, gilt dennoch als im Schutzumfang dieses Anspruchs liegend. Darüberhinaus werden in den folgenden Ansprüchen die Ausdrücke „erste/r/s“, „zweite/r/s“ und „dritte/r/s“ lediglich als Bezeichnungen verwendet und sollen keine numerische Reihenfolge für ihre Objekte nahelegen.
  • Die vorstehende Beschreibung soll veranschaulichend und nicht einschränkend sein. Zum Beispiel können die vorstehend beschriebenen Beispiele (oder ein oder mehrere Aspekte davon) in Kombination mit anderen verwendet werden. Es können andere Ausführungsformen verwendet werden, beispielsweise von Durchschnittsfachleutennach Prüfung der vorstehenden Beschreibung. Die Zusammenfassung soll dem Leser ermöglichen, schnell das Wesen der technischen Offenbarung zu erfassen. Sie wird mit dem Verständnis vorgelegt, dass sie nicht zur Auslegung oder Einschränkung des Schutzumfangs oder des Sinns der Ansprüche verwendet wird. Auch können in der vorstehenden „Ausführlichen Beschreibung“ verschiedene Merkmale gruppiert sein, um die Offenbarung zu straffen. Die Ansprüche führen jedoch unter Umständen nicht jedes hier offenbarte Merkmal an, da Ausführungsformen eine Teilmenge der Merkmale aufweisen können. Überdies können Ausführungsformen weniger Merkmale als die in einem konkreten Beispiel offenbarten enthalten. Somit werden die folgenden Ansprüche hiermit zu einem Bestandteil der „Ausführlichen Beschreibung“, wobei ein Anspruch für sich allein als separate Ausführungsform steht. Der Schutzumfang der hierin offenbarten Ausführungsformen ist anhand der angefügten Ansprüche zu bestimmen, zusammen mit dem vollen Schutzumfang von Äquivalenten, die derartigen Ansprüchen zustehen.

Claims (25)

  1. Head-Mounted-Display-System zum Bereitstellen von Überleitungen in die / aus der virtuellen Realität, wobei das System Folgendes umfasst: eine Maschine für Überleitungen in die / aus der virtuellen Realität, die als eine Verarbeitungsschaltung umgesetzt ist, um ein von einem Benutzer des Head-Mounted-Displays eingeleitetes Auslöseereignis zu erkennen, eine Sensoranordnung zum Bestimmen einer Bedingung der Umgebung der realen Welt und einen Grafiktreiber zum Darstellen von Inhalt der virtuellen Realität in einem Format, das auf der Bedingung der Umgebung der realen Welt basiert.
  2. System nach Anspruch 1, wobei, um die Bedingung der Umgebung der realen Welt zu bestimmen, die Sensoranordnung dafür vorgesehen ist, auf Sensordaten zuzugreifen, die Leuchtdichtedaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  3. System nach Anspruch 2, wobei die Leuchtdichtedaten von einer Kameraanordnung erhalten werden.
  4. System nach Anspruch 1, wobei, um die Bedingung der Umgebung der realen Welt zu bestimmen, die Sensoranordnung dafür vorgesehen ist, auf Sensordaten zuzugreifen, die Geräuschdaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  5. System nach Anspruch 1, wobei, um Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert, der Grafiktreiber für Folgendes vorgesehen ist: Bestimmen einer Position und einer Intensität einer Lichtquelle der realen Welt in einer Umgebung um den Benutzer und Darstellen eines hellen Bereichs im Inhalt der virtuellen Realität an einer Position, die der Position der Lichtquelle der realen Welt entspricht.
  6. System nach Anspruch 5, wobei der Grafiktreiber dafür vorgesehen ist, den hellen Bereich von einem ersten Helligkeitspegel auf einen zweiten Helligkeitspegel anzupassen, wobei der zweite Helligkeitspegel der Intensität der Lichtquelle der realen Welt näher ist als der erste Helligkeitspegel.
  7. System nach Anspruch 6, wobei, um den hellen Bereich anzupassen, der Grafiktreiber dafür vorgesehen ist, den hellen Bereich über eine Zeitspanne vom ersten Helligkeitspegel auf den zweiten Helligkeitspegel anzupassen.
  8. System nach Anspruch 5, wobei die VR-Überleitungsmaschine dafür vorgesehen ist, eine Farbe der Lichtquelle der realen Welt zu bestimmen, und wobei der Grafiktreiber dafür vorgesehen ist, den hellen Bereich mit Hilfe einer Farbe darzustellen, die der Farbe der Lichtquelle der realen Welt ähnelt.
  9. System nach Anspruch 5, wobei der Grafiktreiber dafür vorgesehen ist, den Inhalt der virtuellen Realität über eine Zeitspanne schrittweise zu dimmen, wobei das Dimmen bewirkt, dass anfänglich aufgehellter Inhalt der virtuellen Realität gedimmt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  10. System nach Anspruch 1, wobei, um Inhalt der virtuellen Realität in dem Format darzustellen, das auf der Bedingung der Umgebung der realen Welt basiert, der Grafiktreiber für Folgendes vorgesehen ist: Bestimmen eines Helligkeitspegels einer Umgebung um den Benutzer und Dimmen des Inhalts der virtuellen Realität näher zum Helligkeitspegel der Umgebung der realen Welt, wenn der Helligkeitspegel der Umgebung der realen Welt geringer als der Helligkeitspegel des Inhalts der virtuellen Realität ist.
  11. Verfahren zum Bereitstellen von Überleitungen in die / aus der virtuellen Realität, wobei das Verfahren Folgendes umfasst: Erkennen eines von einem Benutzer eines Head-Mounted-Displays eingeleiteten Auslöseereignisses am Head-Mounted-Display, Bestimmen einer Bedingung der Umgebung der realen Welt und Darstellen von Inhalt der virtuellen Realität in einem Format, das auf der Bedingung der Umgebung der realen Welt basiert, durch ein Head-Mounted-Display.
  12. Verfahren nach Anspruch 11, wobei das Bestimmen der Bedingung der Umgebung der realen Welt das Zugreifen auf Sensordaten umfasst, die Leuchtdichtedaten enthalten, welche eine Umgebung um den Benutzer beschreiben.
  13. Verfahren nach Anspruch 12, wobei die Leuchtdichtedaten von einer Kameraanordnung erhalten werden.
  14. Verfahren nach Anspruch 11, wobei das Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfasst: Bestimmen einer Position und einer Intensität einer Lichtquelle der realen Welt in einer Umgebung um den Benutzer und Darstellen eines hellen Bereichs im Inhalt der virtuellen Realität an einer Position, die der Position der Lichtquelle der realen Welt entspricht.
  15. Verfahren nach Anspruch 14, ferner das Anpassen des hellen Bereichs von einem ersten Helligkeitspegel auf einen zweiten Helligkeitspegel umfassend, wobei der zweite Helligkeitspegel der Intensität der Lichtquelle der realen Welt näher ist als der erste Helligkeitspegel.
  16. Verfahren nach Anspruch 15, wobei das Anpassen des hellen Bereichs Folgendes umfasst: Anpassen des hellen Bereichs vom ersten Helligkeitspegel auf den zweiten Helligkeitspegel über eine Zeitspanne.
  17. Verfahren nach Anspruch 14, ferner Folgendes umfassend: Bestimmen einer Farbe der Lichtquelle der realen Welt und Darstellen des hellen Bereichs mit Hilfe einer Farbe, die der Farbe der Lichtquelle der realen Welt ähnelt.
  18. Verfahren nach Anspruch 14, ferner das schrittweise Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne umfassend, wobei das Dimmen bewirkt, dass anfänglich aufgehellter Inhalt der virtuellen Realität gedimmt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  19. Verfahren nach Anspruch 11, wobei das Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfasst: Bestimmen eines Helligkeitspegels einer Umgebung um den Benutzer und Dimmen des Inhalts der virtuellen Realität näher zum Helligkeitspegel der Umgebung der realen Welt, wenn der Helligkeitspegel der Umgebung der realen Welt geringer als der Helligkeitspegel des Inhalts der virtuellen Realität ist.
  20. Verfahren nach Anspruch 19, wobei das Dimmen des Inhalts der virtuellen Realität das schrittweise Dimmen des Inhalts der virtuellen Realität über eine Zeitspanne umfasst.
  21. Verfahren nach Anspruch 20, wobei die Zeitspanne mindestens fünf Minuten beträgt.
  22. Verfahren nach Anspruch 19, ferner Folgendes umfassend: schrittweises Aufhellen des Inhalts der virtuellen Realität über eine Zeitspanne, wobei das Aufhellen bewirkt, dass anfänglich gedimmter Inhalt der virtuellen Realität aufgehellt wird, bis der Inhalt der virtuellen Realität in einem Quellformat angezeigt wird.
  23. Verfahren nach Anspruch 11, wobei das Darstellen von Inhalt der virtuellen Realität in dem Format, das auf der Bedingung der Umgebung der realen Welt basiert, Folgendes umfasst: Bestimmen eines Geräuschpegels einer Umgebung um den Benutzer und schrittweises Erhöhen eines Geräuschpegels des Inhalts der virtuellen Realität näher zum Geräuschpegel der Umgebung um den Benutzer, wenn der Geräuschpegel der Umgebung der realen Welt höher als der Geräuschpegel des Inhalts der virtuellen Realität ist.
  24. Maschinenlesbares Medium oder mehrere maschinenlesbare Medien, das Instruktionen enthält, die bei Ausführung durch eine Maschine die Maschine veranlassen, Operationen eines der Verfahren nach den Ansprüchen 11 bis 23 durchzuführen.
  25. Vorrichtung, die Mittel zum Durchführen eines der Verfahren nach den Ansprüchen 11 bis 23 umfasst.
DE102018204928.9A 2017-03-31 2018-03-29 Überleitung zwischen virtueller Realität und realer Welt Pending DE102018204928A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/475,722 US10475243B2 (en) 2017-03-31 2017-03-31 Transition between virtual reality and real world
US15/475,722 2017-03-31

Publications (1)

Publication Number Publication Date
DE102018204928A1 true DE102018204928A1 (de) 2018-10-04

Family

ID=63525292

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018204928.9A Pending DE102018204928A1 (de) 2017-03-31 2018-03-29 Überleitung zwischen virtueller Realität und realer Welt

Country Status (3)

Country Link
US (2) US10475243B2 (de)
CN (1) CN108693967A (de)
DE (1) DE102018204928A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
US10979685B1 (en) 2017-04-28 2021-04-13 Apple Inc. Focusing for virtual and augmented reality systems
CN116456097A (zh) * 2017-04-28 2023-07-18 苹果公司 视频流水线
WO2019013823A1 (en) * 2017-07-14 2019-01-17 Hewlett-Packard Development Company, L.P. REGULATION OF ENVIRONMENTAL CONDITIONS WITH HEADPHONE EARPHONES
US10627635B2 (en) * 2017-08-02 2020-04-21 Microsoft Technology Licensing, Llc Transitioning into a VR environment and warning HMD users of real-world physical obstacles
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
CN108196366B (zh) * 2018-01-03 2020-07-31 京东方科技集团股份有限公司 一种调节显示亮度的方法和装置
US10867164B2 (en) * 2018-06-29 2020-12-15 Intel Corporation Methods and apparatus for real-time interactive anamorphosis projection via face detection and tracking
US10997948B2 (en) * 2018-09-21 2021-05-04 Apple Inc. Electronic device with adaptive lighting system
US10712819B2 (en) 2018-10-30 2020-07-14 Dish Network L.L.C. System and methods for recreational sport heads-up display control
US11062678B2 (en) * 2018-12-27 2021-07-13 At&T Intellectual Property I, L.P. Synchronization of environments during extended reality experiences
CN111142670A (zh) * 2019-12-29 2020-05-12 青岛歌尔声学科技有限公司 一种vr眼镜及其信号处理方法、装置及介质
US11829225B2 (en) 2020-02-25 2023-11-28 Intel Corporation Partial panel screen dimming

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010164782A (ja) * 2009-01-15 2010-07-29 Brother Ind Ltd 画像表示装置
US8742776B2 (en) * 2010-11-30 2014-06-03 Taiwan Semiconductor Manufacturing Company, Ltd. Mechanisms for resistivity measurement of bump structures
JP5874176B2 (ja) * 2011-03-06 2016-03-02 ソニー株式会社 表示装置、並びに中継装置
JP5682417B2 (ja) * 2011-03-31 2015-03-11 ブラザー工業株式会社 ヘッドマウントディスプレイ,及びその輝度調整方法
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9525929B2 (en) * 2014-03-26 2016-12-20 Harman International Industries, Inc. Variable occlusion headphones
US10311638B2 (en) * 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
EP2998779A1 (de) * 2014-09-22 2016-03-23 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO Kopfmontierte Anzeige
US20170116950A1 (en) * 2015-10-22 2017-04-27 Google Inc. Liquid crystal display with variable drive voltage
US20180190019A1 (en) * 2016-12-29 2018-07-05 Daqri, Llc Augmented reality user interface visibility

Also Published As

Publication number Publication date
US10475243B2 (en) 2019-11-12
US20180286080A1 (en) 2018-10-04
US20200160606A1 (en) 2020-05-21
CN108693967A (zh) 2018-10-23

Similar Documents

Publication Publication Date Title
DE102018204928A1 (de) Überleitung zwischen virtueller Realität und realer Welt
US9811933B2 (en) Image editing using selective editing tools
US20190197784A1 (en) Reality mixer for mixed reality
US9844119B2 (en) Dynamic lighting for head mounted device
WO2018004786A1 (en) Systems and methods for mixed reality transitions
RU2015135388A (ru) Прозрачное устройство отображения и его способ
DE112015002673T5 (de) Anzeige zur Informationsverwaltung
US11354805B2 (en) Utilization of luminance changes to determine user characteristics
DE202017105899U1 (de) Kameraeinstellungsanpassung basierend auf vorhergesagten Umgebungsfaktoren und Nachverfolgungssysteme, die diese einsetzen
JP2013254358A5 (de)
US20160048220A1 (en) Management for wearable display
DE102020116144A1 (de) Virtuelle inhalte, positioniert basierend auf detektiertem objekt
DE202018006448U1 (de) Skalieren eines Bilds eines Gesichts eines Sprechers basierend auf dem Abstand eines Gesichts und einer Grösse einer Anzeige
CN108711407B (zh) 显示效果调节方法、调节装置、显示设备及存储介质
DE112019002353T5 (de) Techniken zum umschalten zwischen immersionsebenen
DE102016104362A1 (de) Anpassen einer elektronischen anzeige auf grundlage von blickverfolgung
DE102014114131A1 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
DE112017001660T5 (de) Datenverarbeitungseinrichtung, Datenverarbeitungsverfahren und computerlesbares Medium
DE112020000725T5 (de) Objektpositionierung und bewegung in dreidimensionalem inhalt
DE102022110363A1 (de) Verfahren und vorrichtung zur debugging-programmausführung und inhaltswiedergabe
CN110447053B (zh) 基于元素显著性的稀疏外围显示器的选择性绘制
US11302285B1 (en) Application programming interface for setting the prominence of user interface elements
DE102022113648A1 (de) Transparente einsatzidentifikation
DE102014206625A1 (de) Positionierung eines HMD im Fahrzeug
DE102014113686A1 (de) Anzeigevorrichtung, die auf den Kopf eines Benutzers aufsetzbar ist, und Verfahren zum Steuern einer solchen Anzeigevorrichtung