DE102015104511A1 - Verfahren zur Informationsverarbeitung und elektronisches Gerät - Google Patents

Verfahren zur Informationsverarbeitung und elektronisches Gerät Download PDF

Info

Publication number
DE102015104511A1
DE102015104511A1 DE102015104511.7A DE102015104511A DE102015104511A1 DE 102015104511 A1 DE102015104511 A1 DE 102015104511A1 DE 102015104511 A DE102015104511 A DE 102015104511A DE 102015104511 A1 DE102015104511 A1 DE 102015104511A1
Authority
DE
Germany
Prior art keywords
electronic device
head
distance
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015104511.7A
Other languages
English (en)
Inventor
Ligang LI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Beijing Lenovo Software Ltd
Original Assignee
Lenovo Beijing Ltd
Beijing Lenovo Software Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201410456690.1A external-priority patent/CN104216520B/zh
Priority claimed from CN201410468803.XA external-priority patent/CN104267805A/zh
Application filed by Lenovo Beijing Ltd, Beijing Lenovo Software Ltd filed Critical Lenovo Beijing Ltd
Publication of DE102015104511A1 publication Critical patent/DE102015104511A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

Es wird ein Verfahren zur Informationsverarbeitung offenbart. Das Verfahren weist folgende Schritte auf: Bestimmen, ob ein kopfgetragenes elektronisches Gerät von einer ersten Position in eine zweite Position gewechselt hat, wobei das kopfgetragene elektronische Gerät eine Bilderfassungseinheit und eine Displayeinheit zum Anzeigen einer virtuellen Szene aufweist; und Erfassen eines Bildes einer Umgebung, in welcher ein Nutzer des kopfgetragenen elektronischen Gerätes sich befindet, mit der Bilderfassungseinheit des kopfgetragenen elektronischen Gerätes und Anzeigen des Bildes, oder eines Teils davon, mittels der Displayeinheit des kopfgetragenen elektronischen Gerätes zur Betrachtung durch den Nutzer. Auch ein Verfahren zur Informationsverarbeitung und ein elektronisches Gerät werden offenbart. Das Verfahren umfasst: Erhalten von Umgebungsinformation über eine reale Umgebung, in welcher sich ein Display befindet, mit dem Sensor und Erzeugen von Sicherheitswarnungsinformation basierend auf der Umgebungsinformation; und Anzeigen einer virtuellen Szene, welche unabhängig von der realen Umgebung ist, zusammen mit der Sicherheitswarnungsinformation mittels des Displays.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung betrifft elektronische Informationstechnologie, und insbesondere ein Verfahren zur Informationsverarbeitung und ein elektronisches Gerät.
  • Hintergrund
  • Mit der Entwicklung von Wissenschaft und Technologie und dem schnellen Marktwachstum elektronischer Produkte, haben verschiedene tragbare elektronische Geräte wie Tabletcomputer, Smartphones und tragbare Multimedia-Wiedergabegeräte, weite Verbreitung gefunden. Jedoch muss ein Nutzer, wenn er ein konventionelles tragbares elektronisches Gerät nutzt, dieses mit seinen Händen halten und eine spezielle Position beibehalten, um das elektronische Gerät zu bedienen oder die auf dem elektronischen Gerät dargestellten Inhalte zu betrachten. Es ist für den Nutzer daher schwierig andere Bewegungen zu machen, wenn er das elektronische Gerät betreibt. Ferner wird der Nutzer leicht müde werden, nachdem er die spezielle Position für eine lange Zeit beibehält.
  • Um das Nutzererlebnis zu verbessern, sind tragbare elektronische Geräte mit Kommunikations- und Audio-/Video-Wiedergabe-Funktion entwickelt worden. Unter diesen Geräten erlangen kopfgetragene bzw. kopftragbare (head-mounted) elektronische Geräte besondere Attraktivität durch ihre vielfältige Funktionalität und das verbesserte Nutzererlebnis. Wenn der Nutzer jedoch andere Tätigkeiten ausführen möchte, z.B. den Status seines Begleiters zu prüfen oder sein Mobiltelefon anzuschauen, während er ein kopfgetragenes elektronisches Gerät beispielsweise zum Anschauen eines Videos verwendet, muss er, da das kopfgetragene elektronische Gerät, welches er trägt, seine Augen verdeckt, das kopfgetragene elektronische Gerät abnehmen bevor er die reale Umgebung, d.h. die Umgebung der realen Welt, sehen kann. Da der Nutzer keine Information über die reale Umgebung direkt durch das kopfgetragene elektronische Gerät erhalten kann, ist es für ihn sehr unbequem bzw. umständlich andere Tätigkeiten auszuführen.
  • Des Weiteren kann mit verschiedenen digitalen Techniken zur Informationserfassung, Speicherung und Berechnung, eine lebhafte virtuelle Szene (scene) in einem elektronischen Gerät erzeugt werden, wobei ein Nutzer räumliche, zeitliche und andere objektive Beschränkungen überwinden kann, um das zu erleben, was er in der realen Welt nicht erleben kann. Momentan kann ein Displaygerät dem Nutzer eine virtuelle Szene, welche sich von der realen Umgebung unterscheidet, anzeigen und erlaubt es dem Nutzer mit der virtuellen Szene durch dedizierte Eingabe-/Ausgabegeräte zu interagieren. Wenn der Nutzer zum Beispiel ein kopfgetragenes Display und ein Paar Skischuhe mit Sensoren trägt, kann das kopfgetragene Display Bilder anzeigen, worin schneebedeckte Berge, Täler und Klippen als Reaktion auf Bewegungsdaten, welche von den Sensoren erfasst werden, vorbeiziehen, so dass der Nutzer sich fühlen kann, als ob er in der realen Welt Ski fahren würde. Jedoch kann, wenn der Nutzer ein solches Displaygerät verwendet, ein Fall eintreten, wobei die Umgebung der virtuellen Szene sehr unterschiedlich von der realen Umgebung ist, insbesondere wenn eine vollständig virtualisierte Szene angezeigt wird. Da der Nutzer in diesem Fall die reale Umgebung nicht sehen kann, kann er einen Unfall erleiden, wenn er entsprechend der Umgebung in der virtuellen Szene handelt.
  • Zusammenfassende Darstellung der Erfindung
  • In einer Ausführungsform der vorliegenden Anmeldung wird ein Verfahren zur Informationsverarbeitung bereitgestellt. Das Verfahren weist die folgenden Schritte auf: Bestimmen, ob ein kopfgetragenes elektronisches Gerät von einer ersten Position zu einer zweiten Position gewechselt hat, wobei das kopfgetragene elektronische Gerät eine Bilderfassungseinheit und eine Displayeinheit zum Anzeigen einer virtuellen Szene aufweist; und Erfassen eines Bildes einer Umgebung, in welcher ein Nutzer des kopfgetragenen elektronischen Gerätes sich befindet, mit der Bilderfassungseinheit des kopfgetragenen elektronischen Gerätes und Anzeigen des Bildes, oder eines Teils davon, mittels der Displayeinheit des kopfgetragenen elektronischen Gerätes zur Betrachtung durch den Nutzer.
  • Optional weist der Schritt des Bestimmens, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, folgenden Schritt auf: Bestimmen, ob sich ein Winkel zwischen dem kopfgetragenen elektronischen Gerät und einer horizontalen Ebene von einem ersten Winkel zu einem zweiten Winkel geändert hat.
  • Optional weist das Verfahren ferner auf: Bestimmen, ob die zweite Position eine vorgegebene Bedingung erfüllt, welches das Bestimmen, ob eine Differenz zwischen dem ersten Winkel und dem zweiten Winkel innerhalb eines vorgegebenen Winkelbereiches liegt, umfasst.
  • Optional weist der Schritt des Bestimmens, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, folgenden Schritt auf: Bestimmen, ob sich eine Distanz zwischen einem Schwerpunkt des kopfgetragenen elektronischen Gerätes und einem vorgegebenen Referenzpunkt von einer ersten Distanz zu einer zweiten Distanz geändert hat.
  • Optional weist das Verfahren ferner auf: Bestimmen, ob die zweite Position eine vorgegebene Bedingung erfüllt, welches das Bestimmen, ob eine Differenz zwischen der ersten Distanz und der zweiten Distanz innerhalb eines vorgegebenen Distanzbereiches liegt, umfasst.
  • Optional weist der Schritt des Bestimmens, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, folgenden Schritt auf: Bestimmen, ob sich eine Richtung, in welche die Displayeinheit gerichtet ist, von einer ersten Richtung zu einer zweiten Richtung geändert hat.
  • Optional weist das Verfahren ferner auf: Bestimmen, ob die zweite Position eine vorgegebene Bedingung erfüllt, welches das Bestimmen, ob ein Winkel zwischen der ersten Richtung und der zweiten Richtung größer als eine vorgegebene Winkelschwelle bzw. als ein vorgegebener Winkelschwellwert ist, umfasst.
  • In einer weiteren Ausführungsform der vorliegenden Anmeldung, wird ein kopfgetragenes elektronisches Gerät bereitgestellt. Das kopfgetragene elektronische Gerät weist eine Bilderfassungseinheit und eine Displayeinheit zum Anzeigen einer virtuellen Szene auf. Das kopfgetragene elektronische Gerät weist ferner auf: eine erste Bestimmungseinheit zum Bestimmen, ob das kopfgetragene elektronische Gerät von einer ersten Position in eine zweite Position gewechselt hat; und eine Verarbeitungseinheit bzw. Recheneinheit zum Erfassen eines Bildes einer Umgebung, in welcher ein Nutzer des kopfgetragenen elektronischen Gerätes sich befindet durch Einsatz der Bilderfassungseinheit und Anzeigen des Bildes, oder eines Teils davon, mittels der Displayeinheit zur Betrachtung durch den Nutzer.
  • Optional ist die erste Bestimmungseinheit ausgestaltet zum Bestimmen, ob sich ein Winkel zwischen dem kopfgetragenen elektronischen Gerät und einer horizontalen Ebene von einem ersten Winkel zu einem zweiten Winkel geändert hat.
  • Optional weist das elektronische Gerät ferner eine zweite Bestimmungseinheit auf zum Bestimmen, ob eine Differenz zwischen dem ersten Winkel und dem zweiten Winkel innerhalb eines vorgegebenen Winkelbereiches liegt.
  • Optional ist die erste Bestimmungseinheit ausgestaltet zum Bestimmen, ob sich eine Distanz zwischen einem Schwerpunkt des kopfgetragenen elektronischen Gerätes und einem vorgegebenen Referenzpunkt von einer ersten Distanz zu einer zweiten Distanz geändert hat.
  • Optional weist das elektronische Gerät eine zweite Bestimmungseinheit auf zum Bestimmen, ob eine Differenz zwischen der ersten Distanz und der zweiten Distanz innerhalb eines vorgegebenen Distanzbereiches liegt.
  • Optional ist die erste Bestimmungseinheit ausgestaltet zum Bestimmen, ob sich eine Richtung, in welche die Displayeinheit gerichtet ist, von einer ersten Richtung zu einer zweiten Richtung geändert hat.
  • Optional weist das elektronische Gerät ferner eine zweite Bestimmungseinheit auf zum Bestimmen, ob ein Winkel zwischen der ersten Richtung und der zweiten Richtung größer als eine vorgegebene Winkelschwelle ist.
  • In einer weiteren Ausführungsform der vorliegenden Anmeldung wird ein Verfahren zur Informationsverarbeitung bereitgestellt. Das Verfahren wird bei einem elektronischen Gerät mit einem Display und einem Sensor eingesetzt. Das Verfahren weist die folgenden Schritte auf: Erhalten von Umgebungsinformation über eine reale Umgebung, in welcher sich das Display befindet, mit dem Sensor und Erzeugen von Sicherheitswarnungsinformation basierend auf der Umgebungsinformation; und Anzeigen einer virtuellen Szene, welche unabhängig von der realen Umgebung ist, zusammen mit der Sicherheitswarnungsinformation mittels des Displays.
  • Optional weist die Sicherheitswarnungsinformation Hindernisinformation und Verkehrsbedingungsinformation (traffic condition information) auf.
  • Optional weist der Schritt des Anzeigens der virtuellen Szene, welche unabhängig von der realen Umgebung ist, zusammen mit der Sicherheitswarnungsinformation folgende Schritte auf: Detektieren einer aktuellen Distanz zwischen dem Nutzer und einem Hindernis, welches mit der in der Sicherheitswarnungsinformation enthaltenen Hindernisinformation assoziiert ist, während die virtuelle Szene angezeigt wird; Bestimmen, ob die aktuelle Distanz kürzer als eine vorgegebene Distanz ist; und Anzeigen der Sicherheitswarnungsinformation in der virtuellen Szene, wenn die aktuelle Distanz kürzer als die vorgegebene Distanz ist.
  • Optional weist die Sicherheitswarnungsinformation ein Bild der realen Umgebung auf und der Schritt des Anzeigens der virtuellen Szene, welche unabhängig von der realen Umgebung ist, zusammen mit der Sicherheitswarnungsinformation weist folgende Schritte auf: Detektieren einer aktuellen Distanz zwischen dem Nutzer und einem Hindernis, welches mit der sich in der Sicherheitswarnungsinformation enthaltenen Hindernisinformation assoziiert ist, während die virtuelle Szene angezeigt wird; und Anzeigen eines Bildes der realen Umgebung anstelle der virtuellen Szene, wenn die aktuelle Distanz kürzer als eine vorgegebene Distanz ist.
  • Optional weist die Sicherheitswarnungsinformation wenigstens eines der folgenden auf: Hindernisbildinformation zum Identifizieren eines Hindernisses in der realen Umgebung, welches mit der Hindernisinformation assoziiert ist; Textinformation zum Identifizieren einer Distanz zwischen dem Hindernis und einem Orientierungspunkt (Landmark) in der virtuellen Szene; Bildwiedergabeinformation zum Identifizieren einer Verkehrsbedingung in der realen Umgebung; und Identifizierungsinformation zum Identifizieren eines sicheren Bereiches für Aktivitäten in der realen Umgebung.
  • In einer weiteren Ausführungsform der vorliegenden Anmeldung wird ein elektronisches Gerät bereitgestellt. Das elektronische Gerät weist ein Display auf; einen Sensor; eine Informationsverarbeitungseinheit zum Erhalten von Umgebungsinformation über eine reale Umgebung, in welcher sich das Display befindet, durch Einsatz des Sensors und zum Erzeugen von Sicherheitswarnungsinformation basierend auf der Umgebungsinformation; und eine Displaysteuereinheit zum Anzeigen einer virtuellen Szene, welche unabhängig von der realen Umgebung ist, zusammen mit der Sicherheitswarnungsinformation mittels des Displays.
  • Optional weist die Sicherheitswarnungsinformation Hindernisinformation und Verkehrsbedingungsinformation auf.
  • Optional weist die Displaysteuereinheit folgendes auf: eine Detektionsuntereinheit zum Detektieren einer aktuellen Distanz zwischen dem Nutzer und einem Hindernis, welches mit der in der Sicherheitswarnungsinformation enthaltenen Hindernisinformation assoziiert ist, während die virtuelle Szene angezeigt wird; eine Bestimmungsuntereinheit zum Bestimmen, ob die aktuelle Distanz kürzer als eine vorgegebene Distanz ist; und eine Steuerungsuntereinheit zum Anzeigen der Sicherheitswarnungsinformation in der virtuellen Szene, wenn die aktuelle Distanz kürzer als die vorgegebene Distanz ist.
  • Optional weist die Displaysteuereinheit folgendes auf:: eine Detektionsuntereinheit zum Detektieren einer aktuellen Distanz zwischen dem Nutzer und einem Hindernis, welches mit der sich in der Sicherheitswarnungsinformation enthaltenen Hindernisinformation assoziiert ist, während die virtuelle Szene angezeigt wird; und eine Steuerungsuntereinheit zum Anzeigen eines Bildes der realen Umgebung anstelle der virtuellen Szene, wenn die aktuelle Distanz kürzer als eine vorgegebene Distanz ist.
  • Optional weist die Sicherheitswarnungsinformation wenigstens eines der Folgenden auf: Hindernisbildinformation zum Identifizieren eines Hindernisses in der realen Umgebung, welches mit der Hindernisinformation assoziiert ist; Textinformation zum Identifizieren einer Distanz zwischen dem Hindernis und einem Orientierungspunkt in der virtuellen Szene; Bildwiedergabeinformation zum Identifizieren einer Verkehrsbedingung in der realen Umgebung; und Identifizierungsinformation zum Identifizieren eines sicheren Bereiches für Aktivitäten in der realen Umgebung.
  • Mit den Ausführungsformen der vorliegenden Anmeldung wird, wenn bestimmt wird, dass das kopfgetragene elektronische Gerät von einer ersten Position zu einer zweiten Position gewechselt hat und die zweite Position eine vorgegebene Bedingung erfüllt, ein Bild der der realen Umgebung, in welcher ein Nutzer des kopfgetragenen elektronischen Gerätes sich befindet, mit der Bilderfassungseinheit erfasst und das Bild, oder ein Teil davon, wird auf der Displayeinheit angezeigt, so dass der Nutzer die Umgebung durch das kopfgetragene elektronische Gerät sehen kann. Somit kann der Nutzer kann das Bild auf der Displayeinheit einfach durch Ändern der Position des kopfgetragenen elektronischen Gerätes sehen. Ferner kann der Nutzer, da er das kopfgetragene elektronische Gerät benutzt, während er es trägt, die reale Umgebung sehen, indem er einfach seine Position ändert, ohne das kopfgetragene elektronische Gerät abnehmen zu müssen. Daher kann der Nutzer andere Tätigkeiten wie gewünscht angenehmer ausführen, was ein verbessertes Nutzererlebnis bietet. Überdies kann die Displayfunktion des kopfgetragenen elektronischen Gerätes verbessert werden und daher die Operabilität und Anwendbarkeit des kopfgetragenen elektronischen Gerätes verbessert werden.
  • Mit den Ausführungsformen der vorliegenden Anmeldung erhält das elektronische Gerät Umgebungsinformation über eine reale Umgebung, in welcher sich das Display befindet, und erzeugt Sicherheitswarnungsinformation basierend auf der Umgebungsinformation, so dass eine virtuelle Szene zusammen mit der Sicherheitswarnungsinformation, welche mit der realen Umgebung assoziiert ist, angezeigt werden kann. Dadurch wird eine Sicherheitswarnung für den Nutzer bereitgestellt und die Sicherheit bei Verwendung des Displays erhöht. Während die virtuelle Szene angezeigt wird, wählt bzw. bestimmt das elektronische Gerät automatisch eine aktuelle Distanz zwischen dem Nutzer und einem Hindernis und bestimmt, ob die aktuelle Distanz kürzer als eine vorgegebene Distanz ist. Wenn bestimmt wird, dass die aktuelle Distanz kürzer ist als die vorgegebene Distanz, zeigt das elektronisches Gerät in der virtuellen Szene ein Bild des Hindernisses in der realen Umgebung an oder eine Distanz zwischen dem Hindernis und einem Orientierungspunkt, wodurch der Nutzer aufgefordert wird, das Hindernis zu umgehen ohne zu der realen Umgebung wechseln zu müssen. Auf diese Weise kann die Kontinuität, mit welcher die virtuelle Szene angezeigt wird, garantiert werden und das Nutzererlebnis verbessert werden.
  • Kurze Beschreibung der Zeichnungen
  • Um die Lösungen gemäß den Ausgestaltungen der vorliegenden Anmeldung oder des Standes der Technik detaillierter darzustellen, werden die für die Beschreibung der Ausgestaltungen oder des Stands der Technik verwendeten Figuren hier kurz vorgestellt. Es ist für den Fachmann ersichtlich, dass die nachfolgend beschriebenen Figuren nur einige Ausführungsbeispiele der vorliegenden Anmeldung zeigen und ausgehend von diesen Figuren weitere Figuren erhalten werden können ohne erfinderisch tätig zu werden.
  • 1 ist ein Flussdiagramm, welches ein Verfahren zur Informationsverarbeitung gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung darstellt;
  • 2 ist eine schematische Darstellung, welche ein Szenario zeigt, in welchem eine Richtung, in welche die Displayeinheit des kopfgetragenen elektronischen Gerätes gerichtet ist, sich von einer ersten Richtung zu einer zweiten Richtung ändert, gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung;
  • 3 ist eine schematische Darstellung, welche ein Szenario zeigt, in welchem ein erster Displayinhalt in einem ersten Displaybereich der Displayeinheit angezeigt wird und ein Bild in dem zweiten Displaybereich der Displayeinheit angezeigt wird, gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung;
  • 4 ist ein Blockschaltbild eines kopfgetragenen elektronischen Gerätes gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung;
  • 5 ist ein Flussdiagramm, welches ein Verfahren zur Informationsverarbeitung gemäß einem ersten Ausführungsbeispiel der vorliegenden Anmeldung darstellt;
  • 6 ist eine schematische Darstellung, welche Sicherheitswarnungsinformation darstellt, gemäß einem ersten Ausführungsbeispiel der vorliegenden Anmeldung; und
  • 7 ist ein Blockschaltbild eines elektronischen Gerätes gemäß einem zweiten Ausführungsbeispiel der vorliegenden Anmeldung.
  • Detaillierte Beschreibung der Ausführungsbeispiele
  • Gemäß einer Ausführungsform der vorliegenden Anmeldung kann ein Verfahren zur Informationsverarbeitung bei einem kopfgetragenen elektronischen Gerät eingesetzt werden. Das Verfahren weist folgende Schritte auf: Bestimmen, ob das kopfgetragene elektronische Gerät von einer ersten Position in eine zweite Position gewechselt hat, wobei das kopfgetragene elektronische Gerät eine Bilderfassungseinheit und eine Displayeinheit zum Anzeigen einer virtuellen Szene aufweist; und Erfassen eines Bildes einer Umgebung, in welcher ein Nutzer des kopfgetragenen elektronischen Gerätes sich befindet, durch Einsatz der Bilderfassungseinheit des kopfgetragenen elektronischen Gerätes und Anzeigen des Bildes, oder eines Teils davon, mittels der Displayeinheit des kopfgetragenen elektronischen Gerätes zur Betrachtung durch den Nutzer.
  • Gemäß einer Ausführungsform der vorliegenden Anmeldung wird Umgebungsinformation über eine reale Umgebung bzw. Umgebung der realen Welt, in welcher sich ein Display befindet, erhalten und Sicherheitswarnungsinformation wird basierend auf der Umgebungsinformation erzeugt, um eine virtuelle Szene zusammen mit der Sicherheitswarnungsinformation anzuzeigen, wodurch der Nutzer mit eine Sicherheitswarnung versorgt wird. Auf diese Weise kann das technische Problem, welches mit geringer Sicherheit bei Verwendung des Displays verbunden ist, gelöst werden und die Sicherheit bei Verwendung des Displays verbessert werden.
  • Im Folgenden werden die Lösungen gemäß den Ausführungsbeispielen der vorliegenden Anmeldung klar und vollständig unter Bezugnahme auf die Figuren beschrieben. Es ist ersichtlich, dass die nachfolgend beschriebenen Ausführungsbeispiele nur einige statt alle der Ausführungsformen darstellen. Ausgehend von den Ausführungsbeispielen der vorliegenden Anmeldung kann der Fachmann weitere Ausführungsformen erhalten ohne erfinderisch tätig zu werden. All diese Ausführungsformen sind vom Umfang der vorliegenden Anmeldung abgedeckt anzusehen. Die Ausführungsbeispiele der vorliegenden Anmeldung und die Merkmale darin können wie geeignet bzw. zweckdienlich miteinander kombiniert werden. Ferner können, während eine logische Reihenfolge in dem Flussdiagramm dargestellt wird, in manchen Fällen die hierin gezeigten oder beschriebenen Schritte in einer anderen Reihenfolge ausgeführt werden.
  • Ferner repräsentiert der Ausdruck “und/oder” wie hierin verwendet, nur eine Beziehung zwischen miteinander in Beziehung stehenden Objekten, welche drei Möglichkeiten umfasst. Zum Beispiel bedeutet “A und/oder B” A, B, oder beides. Ferner stellt das Symbol “/” wie hierin verwendet, soweit nicht anderweitig bezeichnet, eine “oder” Beziehung zwischen den in Beziehung stehenden Objekten vor und nach dem Symbol dar.
  • Die Lösungen der vorliegenden Anmeldung werden im Nachfolgenden detailliert unter Bezugnahme auf die Figuren und Ausführungsbeispiele beschrieben, so dass sie besser verstanden werden können.
  • Bezugnehmend auf 1, gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung, wird ein Verfahren zur Informationsverarbeitung bereitgestellt. Das Verfahren kann bei einem kopfgetragenen elektronischen Gerät eingesetzt werden. Der primäre Prozessfluss des Verfahrens wird wie folgt beschrieben.
  • In Schritt 101 wird bestimmt, ob das kopfgetragene elektronische Gerät von einer ersten Position zu einer zweiten Position gewechselt hat. Die Displayeinheit zeigt einen ersten Displayinhalt an, welcher ein Displayinhalt für eine virtuelle Szene ist, wenn das kopfgetragene elektronische Gerät die erste Position hat.
  • In einem Ausführungsbeispiel der vorliegenden Anmeldung, kann das kopfgetragene elektronische Gerät wie ein Helm oder eine Brille geformt sein, oder kann beliebige andere Formen haben. Die vorliegende Anmeldung ist nicht auf eine spezifische Form oder einen spezifischen Stil des kopfgetragenen elektronischen Gerätes beschränkt.
  • Das kopfgetragene elektronische Gerät weist eine Displayeinheit und eine Bilderfassungseinheit auf.
  • Die Displayeinheit kann ein Displaybildschirm, d.h., ein OLED-Displaybildschirm (Organic Light-Emitting Diode), ein LCD-Bildschirm (Liquid Crystal Display) oder dergleichen sein. Ein Nutzer, welcher das kopfgetragene elektronische Gerät trägt, kann Bilder oder Videos mittels der Displayeinheit sehen.
  • Die Bilderfassungseinheit kann eine Kameraeinheit sein, z.B. eine konventionelles Kamera, eine Infrarotkamera, oder dergleichen. Mit der Bilderfassungseinheit kann das kopfgetragene elektronische Gerät ein Bild erfassen, welches mit der realen Umgebung assoziiert ist, welche das kopfgetragene elektronische Gerät umgibt, so dass das Bild unter der Kontrolle des kopfgetragenen elektronischen Gerätes auf der Displayeinheit angezeigt werden kann. Ferner ist das Ausführungsbeispiel der vorliegenden Anmeldung nicht auf irgendwelche spezifischen Formen oder Materialien der Displayeinheit und der Bilderfassungseinheit beschränkt.
  • Das kopfgetragene elektronische Gerät kann verschiedene Positionen haben bzw. einnehmen. Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung wird als Auslösebedingung (Trigger-Bedingung), ob die Displayeinheit das Bild anzeigen soll oder nicht, verwendet, ob eine Änderung bzw. ein Wechsel in der Position des kopfgetragenen elektronischen Gerätes eine vorgegebene Bedingung erfüllt.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung zeigt die Displayeinheit den ersten Displayinhalt an, wenn das kopfgetragene elektronische Gerät die erste Position einnimmt. Insbesondere ist der erste Displayinhalt ein Displayinhalt für eine virtuelle Szene, z.B. ein Bild in einem Film, welche der Nutzer anschaut oder ein Bild in einem Spiel, welches der Nutzer spielt.
  • Wenn das kopfgetragene elektronische Gerät die erste Position einnimmt, kann automatisch bestimmt werden, ob seine derzeitige Position von der ersten Position zu der zweiten Position gewechselt hat. Es gibt verschiedene Schemata um zu bestimmen, ob das kopfgetragene elektronische Gerät von der ersten Position zu der zweiten Position gewechselt hat. Drei davon werden nachfolgend als Beispiele beschrieben.
  • Erstes Bestimmungsschema
  • Optional weist der Schritt des Bestimmens, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, folgenden Schritt auf: Bestimmen, ob sich ein Winkel zwischen dem kopfgetragenen elektronischen Gerät und einer horizontalen Ebene von einem ersten Winkel zu einem zweiten Winkel geändert hat.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung wird bestimmt, ob sich die Position des kopfgetragenen elektronischen Gerätes geändert hat, durch Bestimmen, ob sich der Winkel zwischen dem kopfgetragenen elektronischen Gerät und der horizontalen Ebene geändert hat. Hierbei bezeichnet die horizontale Ebene eine Ebene, welche durch komplett ruhiges bzw. stationäres Wasser gebildet wird oder eine beliebige dazu parallele Ebene. Wenn das kopfgetragene elektronische Gerät eine erste Position einnimmt, ist der Winkel zwischen ihm und der horizontalen Ebene der erste Winkel. Wenn das kopfgetragene elektronische Gerät mit einem Sensor detektiert, dass sich der Winkel zwischen ihm und der horizontalen Ebene von dem ersten Winkel zu dem zweiten Winkel geändert hat, bestimmt es, dass seine Position von der ersten Position in die zweiten Position gewechselt hat. Hierbei ist, wenn sich das kopfgetragene elektronische Gerät in der zweiten Position befindet, der Winkel zwischen ihm und der horizontalen Ebene der zweite Winkel.
  • Das kopfgetragene elektronische Gerät kann einen Winkel zwischen ihm der horizontalen Ebene mit einem Sensor detektieren, welcher zum Beispiel ein Gyroskop, ein Beschleunigungssensor oder ein Schwerkraftsensor sein kann.
  • Zweites Bestimmungsschema
  • Optional weist der Schritt des Bestimmens, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, folgenden Schritt auf: Bestimmen, ob sich eine Distanz zwischen einem Schwerpunkt des kopfgetragenen elektronischen Gerätes und einem vorgegebenen Referenzpunkt von einer ersten Distanz zu einer zweiten Distanz geändert hat.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung wird bestimmt, ob sich die Position des kopfgetragenen elektronischen Gerätes geändert hat durch Bestimmen, ob sich die Distanz zwischen dem Schwerpunkt des kopfgetragenen elektronischen Gerätes und dem vorgegebenen Referenzpunkt geändert hat. Zum Beispiel kann die Distanz durch einen Sensor in einem kopfgetragenen elektronischen Gerät detektiert werden, welcher bspw. ein Gyroskop, ein Beschleunigungssensor oder ein Schwerkraftsensor sein kann. Hierbei kann der vorgegebene Referenzpunkt ein beliebiger fixer Punkt in dem Raum sein, in welchem sich das kopfgetragene elektronische Gerät befindet. Die Distanz bezieht sich auf die Distanz in gerader Linie zwischen dem Schwerpunkt und dem vorgegebenen Referenzpunkt. Wenn das kopfgetragene elektronische Gerät die erste Position einnimmt, ist die Distanz zwischen dem Schwerpunkt und dem vorgegebenen Referenzpunkt die erste Distanz. Wenn detektiert wird, dass sich die Distanz zwischen dem Schwerpunkt und dem vorgegebene Referenzpunkt von der ersten Distanz zu der zweiten Distanz geändert hat, so wird bestimmt, dass die Position des kopfgetragenen elektronischen Gerätes von der ersten Position in die zweiten Position gewechselt hat. Wenn das kopfgetragene elektronische Gerät die zweite Position einnimmt, ist die Distanz zwischen dem Schwerpunkt und dem vorgegebenen Referenzpunkt die zweite Distanz.
  • Drittes Bestimmungsschema
  • Optional kann der Schritt des Bestimmens, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, folgenden Schritt aufweisen: Bestimmen, ob sich eine Richtung, in welche die Displayeinheit gerichtet ist, von einer ersten Richtung zu einer zweiten Richtung geändert hat.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung wird bestimmt, ob sich die Position des kopfgetragenen elektronischen Gerätes geändert hat durch Bestimmen, ob sich die Richtung, in welche die Displayeinheit des kopfgetragenen elektronischen Gerätes gerichtet ist, geändert hat. Wenn sich das kopfgetragene elektronische Gerät an einer festen Position befindet, so befindet sich die Displayeinheit, welche in dem kopfgetragenen elektronischen Gerät befestigt ist, auch an einer festen Position. In diesem Fall ist die Richtung, in welche die Displayeinheit gerichtet ist, eine feste Richtung. Wenn zum Beispiel das kopfgetragene elektronische Gerät die erste Position einnimmt, so ist die Richtung, in welche die Displayeinheit gerichtet ist, die erste Richtung. Ein Sensor in dem kopfgetragenen elektronischen Gerät kann bestimmen, ob sich die Richtung, in welche die Displayeinheit gerichtet ist, geändert hat. Wenn bestimmt wird, dass sich die Richtung, in welche die Displayeinheit gerichtet ist, von der ersten Richtung in die zweite Richtung geändert hat, so wird bestimmt, dass die Position des kopfgetragenen elektronischen Gerätes von der ersten Position in die zweite Position gewechselt hat. Wenn das kopfgetragene elektronische Gerät die zweite Position einnimmt, so ist die Richtung, in welche die Displayeinheit gerichtet ist, die zweite Richtung.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung, werden alle der oben genannten drei Schemata zum Bestimmen, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat durch das kopfgetragene elektronische Gerät automatisch ausgeführt. Basierend auf dem Wechsel bzw. der Änderung der Position des kopfgetragenen elektronischen Gerätes kann der Wechsel bzw. die Änderung der Position des Nutzers, welcher das kopfgetragene elektronische Gerät verwendet, bestimmt werden, weil das kopfgetragene elektronische Gerät von dem Nutzer auf seinem Kopf getragen wird. Daher ändert sich die Position des kopfgetragenen elektronischen Gerätes wenn sich die Position des Nutzers ändert. Das kopfgetragene elektronische Gerät kann die Änderung der Position des Nutzers in Echtzeit detektieren, um die Anforderungen des Nutzers zu bestimmen. Eine Mehrzahl von Bestimmungsschemata sind in der vorliegenden Anmeldung bereitgestellt worden. In der Praxis können, was relativ flexibel ist, verschiedene Schemata wie gewünscht ausgewählt werden.
  • Es ist an dieser Stelle anzumerken, dass die vorliegende Anmeldung nicht auf die oben genannten drei Bestimmungsschemata beschränkt ist. Alle diejenigen Schemata, die bestimmen können, ob sich die Position des kopfgetragenen elektronischen Gerätes geändert hat, sind vom Umfang der vorliegenden Anmeldung mit eingeschlossen.
  • Vorzugsweise wird bestimmt, ob die zweite Position eine vorgegebene Bedingung erfüllt.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung macht das kopfgetragene elektronische Gerät, wenn bestimmt wird, dass das kopfgetragene elektronische Gerät von der ersten Position in die zweiten Position gewechselt hat, mit der Bestimmung, ob die zweite Position die vorgegebene Bedingung erfüllt, weiter.
  • Bei der Implementierung kann es verschiedene vorgegebene Bedingungen geben. Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung werden drei vorgegebene Bedingungen, welche mit den oben genannten drei Schemata zum Bestimmen, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweiten Position gewechselt hat, korrespondieren, jeweils als Beispiel erklärt, um das Verständnis des Lesers zu erleichtern.
  • Erste vorgegebene Bedingung
  • Optional weist der Schritt des Bestimmens, ob die zweite Position die vorgegebene Bedingung erfüllt, auf: Bestimmen, ob eine Differenz zwischen dem ersten Winkel und dem zweiten Winkel innerhalb eines vorgegebenen Winkelbereiches liegt.
  • Die erste vorgegebene Bedingung, die in diesem Ausführungsbeispiel bereitgestellt wird, bezieht sich auf das oben genannte erste Bestimmungsschema. In diesem Fall kann die vorgegebene Bedingung sein, dass die Differenz zwischen dem ersten Winkel und dem zweiten Winkel innerhalb des vorgegebenen Winkelbereiches liegt.
  • Wenn bestimmt wird, dass sich der Winkel zwischen dem kopfgetragenen elektronischen Gerät und der horizontalen Ebene von dem ersten Winkel zu dem zweiten Winkel geändert hat, so muss es bestimmen, ob die Differenz zwischen dem ersten Winkel und dem zweiten Winkel innerhalb des vorgegebenen Winkelbereiches liegt. Zum Beispiel kann der vorgegebene Winkelbereich [45°, 160°] sein. Wenn der Nutzer, welche das kopfgetragene elektronische Gerät trägt, aufrecht sitzt, so wird detektiert, dass der Winkel zwischen dem kopfgetragenen elektronischen Gerät und der horizontalen Ebene, d.h., der erste Winkel, 90° ist. Wenn der Nutzer seinen Kopf nach links neigt, wird detektiert, dass der Winkel zwischen dem kopfgetragenen elektronischen Gerät und der horizontalen Ebene sich von dem ersten Winkel zu dem zweiten Winkel geändert hat, welcher z.B. 140° ist. In diesem Fall ist die Differenz zwischen dem ersten und dem zweiten Winkel 50°, was innerhalb des vorgegebenen Winkelbereiches liegt. Dann erfüllt die zweite Position, welche mit dem zweiten Winkel assoziiert ist, die vorgegebene Bedingung.
  • Ferner, wenn der Nutzer das kopfgetragene elektronische Gerät verwendet während er eine einzige Position für eine lange Zeit aufrechterhält, kann er seinen Kopf unbeabsichtigt leicht nach rechts oder links neigen. Um zu vermeiden, dass eine solche leichte Bewegung des Nutzers als die vorgegebene Bedingung erfüllend angesehen wird, kann der vorgegebene Winkelbereich in einem Ausführungsbeispiel der vorliegenden Anmeldung wie gewünscht eingestellt werden.
  • Zweite vorgegebene Bedingung
  • Optional weist der Schritt des Bestimmens, ob die zweite Position die vorgegebene Bedingung erfüllt, auf: Bestimmen, ob eine Differenz zwischen der ersten Distanz und der zweiten Distanz innerhalb eines vorgegebenen Distanzbereiches liegt.
  • Die zweite vorgegebene Bedingung, welche in diesem Ausführungsbeispiel bereitgestellt wird, bezieht sich auf das oben genannte zweite Bestimmungsschema. In diesem Fall kann die vorgegebene Bedingung sein, dass die Differenz zwischen der ersten Distanz und der zweiten Distanz innerhalb eines vorgegebenen Distanzbereiches liegt.
  • Wenn bestimmt wird, dass die Distanz zwischen dem Schwerpunkt des kopfgetragenen elektronischen Gerätes und dem vorgegebenen Referenzpunkt sich von der ersten Distanz zu der zweiten Distanz geändert hat, so muss es bestimmen, ob die Differenz zwischen der ersten Distanz und der zweiten Distanz innerhalb des vorgegebenen Distanzbereiches liegt, welcher abhängig von der Wahl bzw. Einstellung des vorgegebenen Referenzpunktes sein kann.
  • Zum Beispiel kann die Position der Füße des Nutzers als vorgegebener Referenzpunkt gesetzt werden und der vorgegebene Distanzbereich kann [0,1 m, 0,4 m] sein. Wenn der Nutzer sitzt und das kopfgetragene elektronische Gerät trägt, um einen Film anzusehen, ist die erste Distanz 1,45 m. Wenn der Nutzer mit seinem Körper signifikant wackelt, ist die zweite Distanz z.B. 1,58 m. Alternativ, wenn der Nutzer aufsteht, ist die zweite Distanz z.B., 1,75 m. Es ist zu beobachten, dass die Differenzen zwischen 1,58 m und 1,75 m und der ersten Distanz 1,45 m jeweils 0,13 m und 0,3 m betragen, welche beide innerhalb des vorgegebenen Distanzbereiches liegen. Dann erfüllen die zweiten Positionen, welche mit 1,58 m und 1,75 m assoziiert sind, beide die vorgegebene Bedingung.
  • Dritte vorgegebene Bedingung
  • Optional weist der Schritt des Bestimmens, ob die zweite Position die vorgegebene Bedingung erfüllt, auf: Bestimmen, ob ein Winkel zwischen der ersten Richtung und der zweiten Richtung größer als eine vorgegebene Winkelschwelle ist.
  • Die dritte vorgegebene Bedingung, welche in diesem Ausführungsbeispiel bereitgestellt wird, bezieht sich auf das oben genannte dritte Bestimmungsschema. In diesem Fall kann die vorgegebene Bedingung sein, dass der Winkel zwischen der ersten Richtung und der zweiten Richtung größer als eine vorgegebene Winkelschwelle ist.
  • Wenn bestimmt wird, dass die Richtung, in welche die Displayeinheit des kopfgetragenen elektronischen Gerätes gerichtet ist, sich von der ersten Richtung zu der zweiten Richtung geändert hat, so muss bestimmt werden, ob der Winkel zwischen der ersten Richtung und der zweiten Richtung größer als die vorgegebene Winkelschwelle ist.
  • Wenn der Winkel zwischen der ersten Richtung und der zweiten Richtung groß ist, indiziert dies, dass sich der Kopf des Nutzers signifikant bewegt. Es ist wahrscheinlich, dass der Nutzer den Displayinhalt zu dieser Zeit ändern möchte. Diese Bestimmungsbedingung wird hinzugefügt, da der Nutzer seinen Kopf manchmal bewegt, weil er sich einfach etwas bewegen möchte. In diesem Fall kann sich sein Kopf etwas bewegen. Ohne diese Bestimmungsbedingung, könnte das kopfgetragene elektronische Gerät den Displayinhalt in diesem Fall ändern, was zu Unannehmlichkeiten für den Nutzer führen wird. Mit dem Hinzufügen dieser Bestimmungsbedingung kann daher die fehlerhafte Reaktionsrate des kopfgetragenen elektronischen Gerätes effektiv reduziert werden.
  • Bezugnehmend auf 2 ist, wenn das kopfgetragene elektronische Gerät die erste Position einnimmt, die Richtung, in welche die Displayeinheit 200 gerichtet ist, die erste Richtung 201. Wenn sich die Richtung, in welche die Displayeinheit 200 gerichtet ist, von der ersten Richtung 201 zu der zweiten Richtung 202 geändert hat, wird der Winkel zwischen der ersten Richtung 201 und der zweiten Richtung 202 detektiert. Gemäß einem Beispiel ist der Winkel in 2 90°. In diesem Fall ist der Nutzer geradeaus gerichtet, wenn die Richtung, in welche die Displayeinheit 200 gerichtet ist, die erste Richtung 201 ist. Wenn die Richtung, in welche die Displayeinheit 200 gerichtet ist, die zweite Richtung 202 ist, ist der Nutzer seiner rechten Schulter zugewandt, d.h. er dreht seinen Kopf um 90° nach rechts. Daher ist der Winkel zwischen der ersten Richtung 201 und der zweiten Richtung 202 90°. Gemäß einem Ausführungsbeispiel, wobei die vorgegebene Winkelschwelle auf 70° eingestellt ist, kann bestimmt werden, dass die zweite Position, welche mit der zweiten Richtung 202 assoziiert ist, die vorgegebene Bedingung erfüllt, da 90° größer als 70° ist.
  • Natürlich können die spezifischen Parameter der oben genannten drei vorgegebenen Bedingungen in Abhängigkeit von tatsächlichen Situationen eingestellt werden. Ferner können, um die Genauigkeit der Bestimmung der zweiten Position zu sichern, mehr als eines oder alle der oben genannten drei Bestimmungsschemata gleichzeitig bzw. gemeinsam berücksichtigt werden, um zu bestimmen, ob die zweite Position die vorgegebene Bedingung erfüllt.
  • Es ist hierbei anzumerken, dass vorstehend nur drei vorgegebene Bedingungen zur Bestimmung der zweite Position beschrieben worden sein. Details von anderen möglichen vorgegebenen Bedingungen werden an dieser Stelle ausgespart. Alle vorgegebenen Schemata zur Bestimmung der zweiten Position sind also vom Umfang der vorliegenden Anmeldung eingeschlossen anzusehen.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung, können verschiedene vorgegebene Bedingungen wie gewünscht frei gesetzt werden. Ferner kann das kopfgetragene elektronische Gerät automatisch bestimmen, ob die zweite Position die vorgegebene Bedingung erfüllt und daraufhin die tatsächliche Anforderung des Nutzers bestimmen, basierend auf dem Bestimmungsergebnis. Dadurch wird die Intelligenz und Anwendbarkeit des kopfgetragenen elektronischen Gerätes verbessert.
  • In Schritt 102 wird ein Bild der Umgebung, in welcher ein Nutzer des kopfgetragenen elektronischen Gerätes sich befindet, durch Einsatz der Bilderfassungseinheit des kopfgetragenen elektronischen Gerätes erfasst. In Schritt 103 wird das Bild, oder ein Teil davon, mittels der Displayeinheit des kopfgetragenen elektronischen Gerätes zur Betrachtung durch den Nutzer angezeigt.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung trägt, zum Beispiel, ein Nutzer das kopfgetragene elektronische Gerät um einen Film anzuschauen, wobei er einen Displayeffekt genießt, welcher durch das kopfgetragene elektronische Gerät erzielt wird, welcher besser als das ist, was mit einem konventionellen Display erreicht werden kann und einer Szene der realen Welt näher kommt. Während dieser Zeit, falls der Nutzer eine Tätigkeit ausführen will, welche er nur ausführen kann, wenn er die reale Umgebung sieht, z.B., wenn der Nutzer Durst hat und Wasser trinken will, wenn der Nutzer die Vibration seines Mobiltelefons in seiner Tasche fühlt und den Status seines Mobiltelefons überprüfen möchte, oder wenn der Nutzer den Status seines neben ihm sitzenden Freundes prüfen möchte, kann er einfach eine Bewegung machen, z.B. seinen Kopf drehen oder seinen Körper wackeln lassen. Das kopfgetragene elektronische Gerät kann die Bewegung des Nutzers detektieren und daraufhin bestimmen, ob die zweite Position, welche das kopfgetragene elektronische Gerät nach der Bewegung des Nutzers einnimmt, die vorgegebene Bedingung erfüllt. Wenn die zweite Position die vorgegebene Bedingung erfüllt, initiiert das kopfgetragene elektronische Gerät die Bilderfassungseinheit, um ein Bild der realen Umgebung, in welcher ein Nutzer sich befindet, zu erfassen, und zeigt das Bild, oder einen Teil davon, auf der Displayeinheit an. Auf diese Weise kann der Nutzer die reale Umgebung direkt mittels der Displayeinheit sehen, ohne das kopfgetragene elektronische Gerät absetzen zu müssen, so dass er auf angenehme Art und Weise einen Becher zum Trinken von Wasser nehmen, den Status seines Mobiltelefons prüfen, oder den Status seines Freundes prüfen kann, während er einen Film anschaut.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung kann das kopfgetragene elektronische Gerät als Reaktion auf die Bewegung des Nutzers automatisch bestimmen, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweiten Position gewechselt hat durch Einsatz eines oder mehrerer der oben genannten Bestimmungsschemata und, wenn bestimmt wird, dass die zweite Position die vorgegebene Bedingung erfüllt, ein Bild, welches mit der realen Umgebung assoziiert ist, erfassen und anzeigen. Das heißt, es ist möglich die Eingabe bzw. Handlung Nutzers zu detektieren und daraufhin die Anforderung des Nutzers zu bestimmen ohne jedwede manuelle Operation oder Eingabe des Nutzers, so dass das Nutzererlebnis verbessert werden kann und die Intelligenz und Anwendbarkeit des kopfgetragenen elektronischen Gerätes verbessert werden kann.
  • Ferner kann ein Bild einer realen Umgebung, in welcher ein Nutzer sich befindet, durch die Bilderfassungseinheit erfasst werden und das Bild, oder ein Teil davon, kann durch die Displayeinheit angezeigt werden. Auf diese Weise kann der Nutzer das Bild, welches mit der realen Umgebung assoziiert ist, direkt über die Displayeinheit sehen, ohne das kopfgetragene elektronische Gerät absetzen oder ausschalten zu müssen, so dass er auf angenehme Art und Weise eine andere Tätigkeit ausführen kann. Daher kann die Tätigkeit, mit welcher der Nutzer das kopfgetragene elektronische Gerät abnimmt oder ausschaltet, eingespart werden, so dass der Nutzer den Displayinhalt für die reale Umgebung sehen kann, während er den Displayinhalt für die virtuelle Szene auf der Displayeinheit betrachtet. Auf diese Weise kann die Displayfunktion des kopfgetragenen elektronischen Gerätes verbessert werden und die Wettbewerbsfähigkeit des kopfgetragenen elektronischen Gerätes auf dem Markt gesteigert werden.
  • Optional, gemäß einer Implementierung des Ausführungsbeispiels der vorliegenden Anmeldung, kann der Schritt 103, wobei das Bild, oder ein Teil davon, durch die Displayeinheit zur Betrachtung durch den Nutzer angezeigt wird, folgende Situationen aufweisen.
  • Erste Situation
  • Das kopfgetragene elektronische Gerät steuert die Displayeinheit, um das Anzeigen des ersten Displayinhalts zu stoppen und das Bild, oder einen Teil davon, anzuzeigen.
  • In der ersten Situation, wenn das kopfgetragene elektronische Gerät bestimmt, dass die zweite Position die vorgegebene Bedingung erfüllt, und das Bild erfasst, steuert es die Displayeinheit, um das Anzeigen des ersten Displayinhalts zu stoppen und das Bild allein auf der Displayeinheit anzuzeigen. In der ersten Situation erleichtert der Displayinhalt auf der Displayeinheit eine wichtige Tätigkeit des Nutzers, z.B. auf einen wichtigen Anruf zurückzurufen oder eine wichtige Nachricht zu senden. In diesem Fall, wird, in Anbetracht der wichtigen Tätigkeit, welche durch den Nutzer auszuführen ist, ein temporäres Pausieren beim Anschauen des ersten Displayinhalts die Verwendung und die Laune des Nutzers nicht beeinträchtigen. Stattdessen erleichtert es die zeitnahe Tätigkeit des Nutzers.
  • Zweite Situation
  • Das kopfgetragene elektronische Gerät steuert die Displayeinheit, um den ersten Displayinhalt und das Bild abwechselnd mit einer vorgegebenen Frequenz anzuzeigen.
  • Zum Beispiel wenn der erste Displayinhalt, welchen der Nutzer ansieht, und die Tätigkeit, die der Nutzer ausführen möchte, beide für den Nutzer unwichtig sind, kann die Displayeinheit das Displayschema gemäß der zweiten Situation annehmen, d.h., den ersten Displayinhalt und das Bild abwechselnd mit einer vorgegebenen Frequenz auf der Displayeinheit anzuzeigen. Die vorgegebene Frequenz kann abhängig von der aktuellen Situation eingestellt werden. In diesem Fall kann der Nutzer die Umgebung, in welcher er sich befindet, sehen, während er die Übersicht des ersten Displayinhalts anschaut.
  • Dritte Situation
  • Der Displaybereich bzw. die Displayfläche der Displayeinheit ist in einen ersten Displaybereich und einen zweiten Displaybereich aufgeteilt. Das kopfgetragene elektronische Gerät steuert den ersten Displaybereich zum Anzeigen des ersten Displayinhalts oder eines Teils davon und steuert den zweiten Displaybereich zum Anzeigen des Bildes oder eines Teils davon.
  • Zum Beispiel, wenn der Nutzer den ersten Displayinhalt für wichtig oder interessant hält und die Tätigkeit, die der Nutzer ausführen muss, auch wichtig ist, aber eine kurze Zeit beansprucht, kann das Displayschema der Displayeinheit gemäß der dritten Situation angenommen werden.
  • Im Folgenden wird das Displayschema in der dritten Situation unter Bezugnahme auf ein spezifisches Beispiel erklärt, wobei das kopfgetragene elektronische Gerät geformt ist wie ein Helm.
  • Bezugnehmend auf 3 kann die Displayeinheit 200 des kopfgetragenen elektronischen Gerätes 300 in einen ersten Displaybereich 301 und einen zweiten Displaybereich 302 aufgeteilt werden. Hierbei sind der erste Displaybereich 301 und der zweite Displaybereich 302 durch eine Trennlinie 303 auf der Displayeinheit 200 getrennt. In einem Ausführungsbeispiel existiert die Trennlinie 303 nicht physikalisch. Das heißt, die Oberfläche der Displayeinheit 200 ist eben und glatt. Daher wird die Trennlinie 303 in 3 als eine gestrichelte Linie dargestellt.
  • Wenn die Geschichte eines Filmes, den der Nutzer auf der Displayeinheit 200 anschaut, aufgelöst wird, ist der Nutzer zu aufgeregt und möchte einen Kaffee trinken, um sich zu beruhigen. Jedoch ist der Kaffee zu heiß und der Nutzer muss den Kaffeebecher klar sehen, um zu verhindern, dass er sich verbrennt. In diesem Fall kann das kopfgetragene elektronische Gerät 300 den ersten Displaybereich 301 ansteuern, um den Film weiterhin abzuspielen, d.h., den ersten Displayinhalt weiterhin anzuzeigen, und den zweiten Displaybereich 302 ansteuern zum Anzeigen des Bildes. Wie in 3 gezeigt, wird der Filminhalt, den der Nutzer anschaut, auf dem ersten Displaybereich 301 angezeigt und der Tisch vor dem Nutzer und die Kaffeetasse auf dem Tisch werden auf dem zweiten Displaybereich 302 angezeigt. Der Nutzer kann den Ablauf der Geschichte des Filmes auf dem ersten Displaybereich 301 sehen, während er die Kaffeetasse basierend auf dem Displayinhalt auf dem zweiten Displaybereich 302 akkurat greift. Auf diese Weise kann der Nutzer die Tätigkeit akkurat ausführen, während er den Film anschaut, um so negative Konsequenzen, wie Verbrühungen durch falsche Handhabung wie Umstoßen der Kaffeetasse, zu vermeiden.
  • Natürlich werden, wenn der erste Displayinhalt und das Bild gleichzeitig angezeigt werden, da die Displayeinheit 200 in den ersten Displaybereich 301 und den zweiten Displaybereich 302 aufgeteilt ist, die Bereiche zum Anzeigen des ersten Displayinhalts und des Bildes auf der Displayeinheit 200 reduziert. In einer Ausführung können die Displaybereiche des ersten Displaybereiches 301 und des zweiten Displaybereiches 302 abhängig von der Anforderung des Nutzers eingestellt werden, oder können manuell durch den Nutzer eingestellt werden. Generell sieht der Nutzer vorwiegend den ersten Displayinhalt. In diesem Fall kann die Fläche des ersten Displaybereiches 301 größer eingestellt werden als die Fläche des zweiten Displaybereichs 302.
  • Ferner kann, wenn die Bilderfassungseinheit zwar Bilder von allen anderen Zuschauern erfasst, welche den Film anschauen und den Nutzer umgeben, der Nutzer aber nur den Status seines Freundes direkt neben ihm sehen wollen. Alternativ, aufgrund der Beschränkung des Displaybereichs, wenn das gesamte Bild dargestellt wird, wird das angezeigte Bild sehr klein sein, was die Sicht des Nutzers beeinträchtigt. In diesem Fall, wenn der zweite Displaybereich 302 zum Anzeigen des Bildes angesteuert wird, kann es nur einen Teil des Bildes anzeigen. Zum Beispiel kann nur der klarste Teil des Bildes, der den Teil zeigt, der dem Nutzer am nächsten ist, dargestellt werden.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung, ist die Displayeinheit 200 in einen ersten Displaybereich 301 und einen zweiten Displaybereich 302 aufgeteilt. Der erste Displaybereich 301 wird angesteuert, um den ersten Displayinhalt anzuzeigen und der zweite Displaybereich 302 wird angesteuert, um das Bild anzuzeigen. Auf diese Weise kann der Nutzer komfortabel die reale Umgebung sehen, um seine Tätigkeiten zu erleichtern, während er den Displayinhalt der virtuellen Szene betrachtet. Dadurch kann die Displayfunktion des kopfgetragenen elektronischen Gerätes verbessert werden. Ferner kann der erste Displaybereich 301 angesteuert werden, um den ersten Displayinhalt oder einen Teil davon anzuzeigen und der zweite Displaybereich 302 wird angesteuert, um das Bild oder einen Teil davon anzuzeigen. Auf diese Weise kann der Nutzer ein klares Bild, welches er sehen möchte, betrachten, so dass das Nutzererlebnis verbessert werden kann.
  • Bezugnehmend auf 4, wird, basierend auf demselben erfinderischen Konzept, ein kopfgetragenes elektronisches Gerät gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung bereitgestellt. Das kopfgetragene elektronische Gerät weist eine Bilderfassungseinheit und eine Displayeinheit auf. Das kopfgetragene elektronische Gerät weist ferner eine erste Bestimmungseinheit 401 und eine Verarbeitungseinheit 403 auf.
  • Die erste Bestimmungseinheit 401 ist ausgestaltet zum Bestimmen, ob das kopfgetragene elektronische Gerät von einer ersten Position in eine zweite Position gewechselt hat.
  • Die Verarbeitungseinheit 403 ist ausgestaltet zum Erfassen eines Bildes einer Umgebung, in welcher ein Nutzer des kopfgetragenen elektronischen Gerätes sich befindet, durch Einsatz der Bilderfassungseinheit und zum Anzeigen des Bildes, oder eines Teils davon, mittels der Displayeinheit zur Betrachtung durch den Nutzer.
  • Optional, gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung, kann die erste Bestimmungseinheit 401 ausgestaltet sein zum Bestimmen, ob sich ein Winkel zwischen dem kopfgetragenen elektronischen Gerät und einer horizontalen Ebene von einem ersten Winkel zu einem zweiten Winkel geändert hat.
  • Optional, gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung, kann die erste Bestimmungseinheit 401 ausgestaltet sein zum Bestimmen, ob sich eine Distanz zwischen einem Schwerpunkt des kopfgetragenen elektronischen Gerätes und einem vorgegebenen Referenzpunkt von einer ersten Distanz zu einer zweiten Distanz geändert hat.
  • Optional, gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung, kann die erste Bestimmungseinheit 401 ausgestaltet sein zum Bestimmen, ob sich eine Richtung, in welche die Displayeinheit gerichtet ist, von einer ersten Richtung zu einer zweiten Richtung geändert hat.
  • Optional gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung, kann das kopfgetragene elektronische Gerät ferner eine zweite Bestimmungseinheit 402 aufweisen zum Bestimmen, ob eine Differenz zwischen dem ersten Winkel und dem zweiten Winkel innerhalb eines vorgegebenen Winkelbereiches liegt.
  • Optional, gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung, kann das kopfgetragene elektronische Gerät ferner eine zweite Bestimmungseinheit 402 aufweisen zum Bestimmen, ob eine Differenz zwischen der ersten Distanz und der zweiten Distanz innerhalb eines vorgegebenen Distanzbereiches liegt.
  • Optional, gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung, kann das kopfgetragene elektronische Gerät ferner eine zweite Bestimmungseinheit 402 aufweisen zum Bestimmen, ob ein Winkel zwischen der ersten Richtung und der zweiten Richtung größer als eine vorgegebene Winkelschwelle ist.
  • Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung, kann das kopfgetragene elektronische Gerät als Reaktion auf die Bewegung des Nutzers automatisch bestimmen, dass das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, durch Verwendung eines oder mehrerer der oben genannten Bestimmungsschemata und die vorgegebene Bedingung abhängig von der Anforderung des Nutzers einstellen, um zu bestimmen, ob die zweite Position die vorgegebene Bedingung erfüllt, ohne irgendeine manuelle Operation bzw. Eingabe des Nutzers. Das heißt, es ist möglich, die Eingabe bzw. Handlung des Nutzers zu detektieren und daraufhin die Anforderungen des Nutzers zu bestimmen, so dass das Nutzererlebnis verbessert werden kann und die Intelligenz und Anwendbarkeit des kopfgetragenen elektronischen Gerätes verbessert werden kann.
  • Ferner, wenn die zweite Position die vorgegebene Bedingung erfüllt, d.h., wenn die Bewegung des Nutzers indiziert, dass er die reale Umgebung sehen möchte, kann ein Bild der Umgebung, in welcher sich der Nutzer befindet, durch die Bilderfassungseinheit erfasst werden und das Bild, oder ein Teil davon, kann mittels der Displayeinheit angezeigt werden. Auf diese Weise kann der Nutzer die reale Umgebung direkt mittels der Displayeinheit sehen, ohne das kopfgetragene elektronische Gerät absetzen oder ausschalten zu müssen, so dass er komfortabel eine andere Tätigkeit ausführen kann. Daher kann die Tätigkeit, mit welcher der Nutzer das kopfgetragene elektronische Gerät abnimmt oder ausschaltet, eingespart werden, so dass der Nutzer den Displayinhalt für die reale Umgebung sehen kann, während er den Displayinhalt für die virtuelle Szene auf der Displayeinheit sieht. Auf diese Weise kann die Displayfunktion des kopfgetragenen elektronischen Gerätes verbessert werden und die Wettbewerbsfähigkeit des kopfgetragenen elektronischen Gerätes auf dem Markt gesteigert werden.
  • Bezugnehmend auf 5 wird ein Verfahren zur Informationsverarbeitung gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung bereitgestellt. Das Verfahren wird bei einem elektronischen Gerät eingesetzt, welches ein Display und ein Sensor aufweist. Das Verfahren weist die folgenden Schritte auf.
  • In Schritt S501 wird Umgebungsinformation über eine reale Umgebung, in welcher sich das Display befindet, mit dem Sensor erhalten und Sicherheitswarnungsinformation wird basierend auf der Umgebungsinformation erzeugt.
  • In Schritt S502 wird eine virtuelle Szene, welche unabhängig von der realen Umgebung ist, mittels des Displays der virtuellen Szene bzw. des Displays zum Anzeigen der virtuellen Szene angezeigt.
  • In Schritt S503 wird die Sicherheitswarnungsinformation angezeigt, während die virtuelle Szene angezeigt wird.
  • Gemäß einem Ausführungsbeispiel weist ein elektronisches Gerät für virtuelle Realität ein Display wie beispielsweise ein kopfgetragenes 3D-Display, und einen Sensor, wie beispielsweise eine Kamera, einen Infrarotsensor, einen Distanzsensor oder dergleichen auf. Das Display kann die virtuelle Szene, die es darstellt, als Reaktion auf Sensordaten, welche durch den Sensor erhalten werden, ändern, um sich den Nutzer so fühlen zu lassen, als ob er in der Szene wäre. Gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung wird, wenn das Display des elektronischen Gerätes aktiviert wird, der Schritt S501 ausgeführt, um die Umgebungsinformation zu erhalten und die Sicherheitswarnungsinformation basierend auf der Umgebungsinformation zu erzeugen.
  • In dem Schritt S501 kann das elektronische Gerät die Umgebungsinformation auf einem beliebigen der folgenden Wege erhalten. Erstens kann es die Umgebungsinformation (z.B. ein Bild) der realen Umgebung mit einer Kamera erhalten. Zweitens kann es die Umgebungsinformation (z.B. ein Infrarotbild) der realen Umgebung mit einem Infrarotsensor erhalten. Drittens kann es die Umgebungsinformation der realen Umgebung mit einem Distanzsensor erhalten, was derzeitige Distanzen von dem Display jeweils zu verschiedenen Hindernissen umfasst. Nach Erhalten der Umgebungsinformation erzeugt das elektronische Gerät die Sicherheitswarnungsinformation basierend auf der Umgebungsinformation. Insbesondere kann das elektronische Gerät die Sicherheitswarnungsinformation durch Einsatz von Bildanalyse erzeugen. Zum Beispiel trägt der Nutzer ein kopfgetragenes 3D-Display in einem Wohnzimmer und ist bereit ein Unterwasserabenteuer zu starten. Wenn der Nutzer das kopfgetragene 3D-Display aktiviert, erfasst das elektronische Gerät ein Bild des Wohnzimmers und bestimmt, durch Einsatz von Bildanalyse, dass sich in dem Wohnzimmer eine Couch 1 Meter links des Nutzers befindet und eine Wand 3 Meter vor dem Nutzer. Entsprechend erzeugt das elektronische Gerät Sicherheitswarnungsinformation, welche indiziert, dass sich eine Couch 1 Meter links von dem Nutzer befindet und eine Wand 3 Meter vor dem Nutzer.
  • Die Sicherheitswarnungsinformation, welche durch das elektronische Gerät erzeugt wird, kann Hindernisinformation und Verkehrsbedingungsinformation aufweisen. Insbesondere kann die Sicherheitswarnungsinformation eine Form von Bild, Text oder Identifikationssymbol annehmen. Wenn die Sicherheitswarnungsinformation ein Bild ist, kann sie Hindernisbildinformation zum Identifizieren eines Hindernisses in der realen Umgebung sein oder Bildwiedergabeinformation zum Identifizieren einer Verkehrsbedingung in der realen Umgebung. Zum Beispiel, wenn das Hindernis einen Tisch und eine Wand aufweist, kann die Sicherheitswarnungsinformation Bilder von dem Tisch und der Wand aufweisen. Wenn die Sicherheitswarnungsinformation eine Form von Text annimmt, kann sie Textinformation zum Identifizieren einer Distanz zwischen dem Hindernis und einem Orientierungspunkt in der virtuellen Szene sein. Zum Beispiel, wenn sich in der virtuellen Szene ein Ginko Baum befindet, kann die Sicherheitswarnungsinformation eine Textnachricht sein “es befindet sich eine Wand hinter dem Ginko Baum, bitte daran vorbeigehen”. Wenn die Sicherheitswarnungsinformation ein Identifikationssymbol ist, kann sie Identifizierungsinformation sein, d.h., Verkehrsinformation zum Identifizieren eines sicheren Bereiches für Aktivitäten in der realen Umgebung. Zum Beispiel kann der sichere Bereich für Aktivitäten durch Pfeile markiert sein. Natürlich kann die Sicherheitswarnungsinformation einfach Warnhinweise und/oder Icons aufweisen, z.B. „Nicht links abbiegen“, “Nicht berühren” oder “Vorsicht Stufe”.
  • Nach Erzeugen der Sicherheitswarnungsinformation, führt das elektronische Gerät den Schritt S502 aus zum Anzeigen der virtuellen Szene mittels des Displays. Gleichzeitig führt das elektronische Gerät den Schritt S503 zum Anzeigen der Sicherheitswarnungsinformation aus, während die virtuelle Szene angezeigt wird, um für den Nutzer des elektronischen Gerätes eine Sicherheitswarnung bereitzustellen. Zum Beispiel wird das Bild, welches das Hindernis in der realen Umgebung zeigt, zu der angezeigten virtuellen Szene hinzugefügt, so dass der Nutzer das Hindernis leicht umgehen kann.
  • In der Praxis ist die virtuelle Szene typischerweise sehr unterschiedlich oder sogar komplett unterschiedlich zu der realen Umgebung. Um zu vermeiden, dass die Sicherheitswarnungsinformation für eine lange Zeit und angezeigt wird und die Qualität der Szene der virtuellen Szene beeinträchtigt, weist der Prozess zum Anzeigen der Sicherheitswarnungsinformation gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung die folgenden Schritte auf. Erstens, während die virtuelle Szene angezeigt wird, wird eine aktuelle Distanz zwischen dem Nutzer und dem Hindernis, welches mit der in der Sicherheitswarnungsinformation enthalten Hindernisinformation assoziiert ist, detektiert. Dann wird bestimmt, ob die aktuelle Distanz kürzer als eine vorgegebene Distanz ist, um ein erstes Bestimmungsergebnis zu erhalten. Als nächstes wird, wenn das erste Bestimmungsergebnis indiziert, dass die aktuelle Distanz kürzer ist als die vorgegebene Distanz, die Sicherheitswarnungsinformation in der virtuellen Szene angezeigt. Insbesondere ist der vorgegebene Distanzschwellwert eine Sicherheitsdistanz, welche auf einen festen Wert wie beispielsweise 20 cm, 30 cm oder 50 cm gesetzt werden kann oder gemäß dem aktuellen Bewegungsstatus des Nutzers eingestellt werden kann. Zum Beispiel, wenn die derzeitige Bewegungsgeschwindigkeit des Nutzers 0,05 m/s ist, ist die vorgegebene Distanz eine Distanz, welche der Nutzer innerhalb von 0,5 min erreichen kann, d.h., 1,5 m.
  • Ferner kann die reale Umgebung, in welche der Nutzer sich befindet, sehr kompliziert sein und es erforderlich sein einen Unfall entsprechend der aktuellen Situation des Nutzers zu vermeiden. Daher erfasst das elektronische Gerät ein reales Bild der realen Umgebung mit dem Sensor und erzeugt die Sicherheitswarnungsinformation analog mit dem realen Bild, um es dem Nutzer zu erlauben, das reale Bild wenn gewünscht zu sehen. Ferner, wenn die Sicherheitswarnungsinformation das reale Bild der realen Umgebung aufweist und das elektronische Gerät die virtuelle Szene anzeigt, wird eine aktuelle Distanz zwischen dem Nutzer und dem Hindernis, welches mit der in der Sicherheitswarnungsinformation enthalten Hindernisinformation assoziiert ist, detektiert während die virtuelle Szene angezeigt wird. Das reale Bild wird anstelle der virtuellen Szene angezeigt, wenn die aktuelle Distanz kürzer ist als eine vorgegebene Distanz. Indem das reale Bild angezeigt wird, ist es möglich, den Nutzer auf verständlichere Weise mit der aktuellen Situation in der realen Umgebung zu versorgen, wodurch das Risiko eines Unfalls reduziert wird.
  • Während die virtuelle Szene angezeigt wird, selektiert das elektronische Gerät automatisch eine aktuelle Distanz zwischen dem Nutzer und dem Hindernis und bestimmt, ob die aktuelle Distanz kürzer ist als eine vorgegebene Distanz. Wenn bestimmt wird, dass die aktuelle Distanz kürzer ist als die vorgegebene Distanz, zeigt elektronische Gerät in der virtuellen Szene ein Bild des Hindernisses in der realen Umgebung an oder eine Distanz zwischen dem Hindernis und einem Orientierungspunkt, wodurch der Nutzer aufgefordert wird das Hindernis zu umgehen, ohne zu der realen Umgebung umschalten zu müssen. Auf diese Weise kann die Kontinuität, mit welcher die virtuelle Szene angezeigt wird, garantiert werden und das Nutzererlebnis verbessert werden.
  • Als nächstes wird, bezugnehmend auf 6, das Verfahren zur Informationsverarbeitung gemäß dem Ausführungsbeispiel der vorliegenden Anmeldung im Detail in Verbindung mit einem spezifischen Beispiel beschrieben werden. Es wird angenommen, dass der Sensor in dem elektronischen Gerät eine Kamera ist, das Display ein kopfgetragenes 3D-Display ist und die Kamera an dem kopfgetragenen 3D-Display bereitgestellt wird. Wenn der Nutzer das kopfgetragene 3D-Display trägt und es aktiviert, erfasst das elektronische Gerät zunächst Umgebungsinformation der realen Umgebung, in welcher sich das Display befindet, mit der Kamera, d.h., ein Bild der realen Umgebung, in welcher der Nutzer sich befindet. Als nächstes analysiert das elektronische Gerät das Bild der realen Welt und erhält Sicherheitswarnungsinformation, welche Hindernisinformation und Verkehrsbedingungsinformation aufweist. Wie in 6 gezeigt, ist die Hindernisinformation ein Bild eines Hindernisses und die Verkehrsbedingungsinformation ist ein sicherer Aktivitätsbereich, welcher durch Pfeile angegeben ist. Dann zeigt das elektronische Gerät eine virtuelle Szene, zum Beispiel eine virtuelle Unterwasserwelt, mittels des kopfgetragenen 3D-Displays an. Während die virtuelle Szene mittels des kopfgetragenen 3D-Displays angezeigt wird, zeigt das elektronische Gerät das Bild des Hindernisses und den sicheren Aktivitätsbereich an, welche durch die Pfeile angegeben ist.
  • Gemäß dem obigen Ausführungsbeispiel erhält das elektronische Gerät die Umgebungsinformation der realen Umgebung, in welcher sich das Display befindet, und erzeugt die Sicherheitswarnungsinformation basierend auf der Umgebungsinformation, um die Sicherheitswarnungsinformation, welche mit der realen Umgebung assoziiert ist, anzuzeigen, während die virtuelle Szene angezeigt wird, wodurch der Nutzer mit der Sicherheitswarnung versorgt wird. Auf diese Weise ist es möglich, das Sicherheitsproblem zu vermeiden, wenn der Nutzer das Display verwendet und daher die reale Umgebung nicht sehen kann, um so das technische Problem gemäß dem Stand der Technik zu lösen, welches mit geringer Sicherheit bei Verwendung des Displays verbunden ist, und die Sicherheit bei Verwendung des Displays zu verbessern.
  • Bezugnehmend auf 7, gemäß einem Ausführungsbeispiel der vorliegenden Anmeldung, wird ein elektronisches Gerät bereitgestellt. Das elektronische Gerät weist ein Display und einen Sensor auf. Das elektronische Gerät weist ferner die folgenden Einheiten auf.
  • Eine Informationsverarbeitungseinheit 710 ist ausgestaltet zum Erhalten von Umgebungsinformation über eine reale Umgebung, in welcher sich das Display befindet, durch Einsatz des Sensors und zum Erzeugen von Sicherheitswarnungsinformation basierend auf der Umgebungsinformation.
  • Die Displaysteuereinheit 720 ist ausgestaltet zum Anzeigen einer virtuellen Szene, welche unabhängig von der realen Umgebung ist, zusammen mit der Sicherheitswarnungsinformation mittels des Displays.
  • Gemäß einem Ausführungsbeispiel weist die Sicherheitswarnungsinformation Hindernisinformation und Verkehrsbedingungsinformation auf.
  • Gemäß einem Ausführungsbeispiel weist die Displaysteuereinheit 720 Folgendes auf: eine Detektionsuntereinheit 721 zum Detektieren einer aktuellen Distanz zwischen dem Nutzer und einem Hindernis, welches mit der in der Sicherheitswarnungsinformation enthaltenen Hindernisinformation assoziiert ist, während die virtuelle Szene angezeigt wird; eine Bestimmungsuntereinheit 722 zum Bestimmen, ob die aktuelle Distanz kürzer als eine vorgegebene Distanz ist; und eine Steuerungsuntereinheit 723 zum Anzeigen der Sicherheitswarnungsinformation in der virtuellen Szene, wenn die aktuelle Distanz kürzer als die vorgegebene Distanz ist.
  • Gemäß einem Ausführungsbeispiel, wenn die Sicherheitswarnungsinformation ein Bild der realen Welt der realen Umgebung aufweist, weist die Displaysteuereinheit 720 Folgendes auf: eine Detektionsuntereinheit 721 zum Detektieren einer aktuellen Distanz zwischen dem Nutzer und einem Hindernis, welches mit der in der Sicherheitswarnungsinformation enthaltenen Hindernisinformation assoziiert ist, während die virtuelle Szene angezeigt wird; und eine Steuerungsuntereinheit 723 zum Anzeigen eines Bildes der realen Umgebung anstelle der virtuellen Szene, wenn die aktuelle Distanz kürzer als eine vorgegebene Distanz ist.
  • Gemäß einem Ausführungsbeispiel weist die Sicherheitswarnungsinformation wenigstens eines der Folgenden auf: Hindernisbildinformation zum Identifizieren eines Hindernisses in der realen Umgebung, welches mit der Hindernisinformation assoziiert ist; Textinformation zum Identifizieren einer Distanz zwischen dem Hindernis und einem Orientierungspunkt in der virtuellen Szene; Bildwiedergabeinformation zum Identifizieren einer Verkehrsbedingung in der realen Umgebung; und Identifizierungsinformation zum Identifizieren eines sicheren Bereiches für Aktivitäten in der realen Umgebung.
  • Die oben genannten Ausführungsbeispiele der vorliegenden Anmeldung haben die folgenden technischen Effekte. Das elektronische Gerät erhält die Umgebungsinformation der realen Umgebung, in welcher sich das Display befindet, und erzeugt die Sicherheitswarnungsinformation basierend auf der Umgebungsinformation, um die Sicherheitswarnungsinformation, welche mit der realen Umgebung assoziiert ist, anzuzeigen, während die virtuelle Szene angezeigt wird, wodurch der Nutzer mit der Sicherheitswarnung versorgt wird. Auf diese Weise ist es möglich die Sicherheit bei der Verwendung des Displays zu verbessern. Während die virtuelle Szene angezeigt wird, wählt das elektronische Gerät automatisch eine aktuelle Distanz zwischen dem Nutzer und einem Hindernis und bestimmt, ob die aktuelle Distanz kürzer ist als eine vorgegebene Distanz. Wenn bestimmt wird, dass die aktuelle Distanz kürzer ist als die vorgegebene Distanz, zeigt das elektronische Gerät in der virtuellen Szene ein Bild des Hindernisses in der realen Umgebung an oder eine Distanz zwischen dem Hindernis und einem Orientierungspunkt, wodurch der Nutzer aufgefordert wird, das Hindernis zu umgehen, ohne zu der realen Umgebung umschalten zu müssen. Auf diese Weise kann die Kontinuität, mit welcher die virtuelle Szene angezeigt wird, garantiert werden und das Nutzererlebnis kann verbessert werden.
  • Es versteht sich für den Fachmann, dass die oben genannte Ausführungsform unter Bezugnahme auf ein Beispiel beschrieben worden ist, in welchem sie in individuelle funktionale Module aufgeteilt wurde. In der Praxis können die obigen Funktionen wie gewünscht zu unterschiedlichen funktionalen Modulen zugeordnet werden. Das heißt, die interne Struktur der Vorrichtung kann in verschiedene funktionale Module aufgeteilt werden, um einen Teil oder alle der oben genannten Funktionen zu erreichen. Für Details der Funktionsweise des oben beschriebenen Systems, der Vorrichtungen und der Einheiten, kann auf das Ausführungsbeispiel des Verfahrens Bezug genommen werden und die Beschreibung davon wird an dieser Stelle ausgespart.
  • Es ist aus den Ausführungsbeispielen der vorliegenden Anmeldung ersichtlich, dass das offenbarte System, die Vorrichtung und das Verfahren auf verschiedene Arten implementiert werden können. Die oben genannten Vorrichtungsausführungsbeispiele sind nur beispielhaft zu verstehen. Zum Beispiel, während die Einheiten gemäß ihrer logischen Funktionen aufgeteilt wurden, sind andere Aufteilungen in der Praxis möglich. Zum Beispiel können mehr als eine Einheit oder ein Element kombiniert werden oder in ein anderes System integriert werden, oder einige Merkmale können ignoriert oder ausgelassen werden. Ferner kann die Kopplung, die direkte Kopplung oder die kommunikative Verbindung zwischen verschiedenen Komponenten wie gezeigt oder diskutiert, eine indirekte Kopplung oder kommunikative Verbindung zwischen einer Schnittstelle, einem Gerät oder Einheit sein und elektrisch, mechanisch oder in anderer Form ausgeführt sein.
  • Die oben als getrennt beschriebenen Einheiten können, müssen jedoch nicht, physikalisch getrennt sein. Die als Einheiten gezeigten Komponenten können, müssen aber nicht, physikalische Einheiten bilden. Sie können beieinander angeordnet sein oder auch über eine Anzahl von Netzwerkelementen verteilt sein. Abhängig von den tatsächlichen Anforderungen können manche oder alle Einheiten ausgewählt werden, um das Ziel der vorliegenden Anmeldung zu erreichen.
  • Ferner können alle funktionalen Einheiten gemäß verschiedenen Ausführungsbeispielen der vorliegenden Anmeldung in einer Verarbeitungseinheit (Processing Unit) integriert sein oder kann jede dieser Einheiten eine separate Einheit bilden, oder können zwei oder mehrere Einheiten in einer Einheit integriert sein. Eine solche integrierte Einheit kann als Hardware implementiert werden, eventuell in Kombination mit funktionalen Softwareeinheiten.
  • Die integrierten Einheiten der vorliegenden Anmeldung, wie oben beschrieben, können als funktionale Softwaremodule implementiert sein und als eigenständige Produkte verkauft oder verwendet werden. In diesem Fall können sie auf einem computerlesbaren Speichermedium gespeichert sein. In Anbetracht dessen können die technischen Lösungen gemäß den Ausführungsformen der vorliegenden Anmeldung oder in anderen Worten Teile davon, welche einen Beitrag gegenüber dem Stand der Technik leisten, im Wesentlichen in Form eines Softwareprodukts verkörpert sein. Das Computersoftwareprodukt kann auf einem Speichermedium gespeichert sein, welches Anweisungen enthält, die einen Computervorrichtung (welche ein PC (Personal Computer), ein Server, ein Netzwerkgerät oder dergleichen sein kann) oder einen Prozessor dazu veranlassen, eines oder mehrere Verfahren gemäß den Ausführungsformen der vorliegenden Anmeldung oder Teilen davon auszuführen. Das Speichermedium kann ein beliebiges von verschiedenen Medien sein, welche in der Lage sind Programmcodes zu speichern, wie beispielsweise ein USB-Speicher, eine Festplatte, ein ROM-Speicher (Read Only Memory), ein RAM-Speicher (Random Access Memory), ein magnetischer Speicher oder ein optischer Speicher (Optical Disk).
  • Während die Ausführungsbeispiele der vorliegenden Anmeldung vorstehend beschrieben wurden, ist der Umfang der vorliegenden Anmeldung nicht darauf beschränkt. Verschiedene Modifikationen und Alternativen können durch den Fachmann ausgeführt werden, ohne den Umfang der vorliegenden Offenbarung zu verlassen. Diese Modifikationen und Alternativen sind als vom Umfang der vorliegenden Anmeldung abgedeckt zu sehen, welcher nur durch die beigefügten Ansprüche definiert ist.

Claims (19)

  1. Verfahren zur Informationsverarbeitung mit den Schritten: Bestimmen, ob ein kopfgetragenes elektronisches Gerät von einer ersten Position in eine zweite Position gewechselt hat, wobei das kopfgetragene elektronische Gerät eine Bilderfassungseinheit und eine Displayeinheit zum Anzeigen einer virtuellen Szene aufweist; und Erfassen eines Bildes einer Umgebung, in welcher ein Nutzer des kopfgetragenen elektronischen Gerätes sich befindet, mit der Bilderfassungseinheit des kopfgetragenen elektronischen Gerätes und Anzeigen des Bildes, oder eines Teils davon, mittels der Displayeinheit des kopfgetragenen elektronischen Gerätes zur Betrachtung durch den Nutzer.
  2. Verfahren nach Anspruch 1, wobei das Bestimmen, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, folgenden Schritt aufweist: Bestimmen, ob sich ein Winkel zwischen dem kopfgetragenen elektronischen Gerät und einer horizontalen Ebene von einem ersten Winkel zu einem zweiten Winkel geändert hat.
  3. Verfahren nach Anspruch 2, ferner aufweisend: Bestimmen, ob die zweite Position eine vorgegebene Bedingung erfüllt, welches ein Bestimmen, ob eine Differenz zwischen dem ersten Winkel und dem zweiten Winkel innerhalb eines vorgegebenen Winkelbereiches liegt, umfasst.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Bestimmen, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, folgenden Schritt aufweist: Bestimmen, ob sich eine Distanz zwischen einem Schwerpunkt des kopfgetragenen elektronischen Gerätes und einem vorgegebenen Referenzpunkt von einer ersten Distanz zu einer zweiten Distanz geändert hat.
  5. Verfahren nach Anspruch 4, ferner aufweisend: Bestimmen, ob die zweite Position eine vorgegebene Bedingung erfüllt, welches ein Bestimmen, ob eine Differenz zwischen der ersten Distanz und der zweiten Distanz innerhalb eines vorgegebenen Distanzbereiches liegt, umfasst.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Bestimmen, ob das kopfgetragene elektronische Gerät von der ersten Position in die zweite Position gewechselt hat, folgenden Schritt aufweist: Bestimmen, ob sich eine Richtung, in welche die Displayeinheit gerichtet ist, von einer ersten Richtung zu einer zweiten Richtung geändert hat.
  7. Verfahren nach Anspruch 6, ferner aufweisend: Bestimmen, ob die zweite Position eine vorgegebene Bedingung erfüllt, welches ein Bestimmen, ob ein Winkel zwischen der ersten Richtung und der zweiten Richtung größer als eine vorgegebene Winkelschwelle ist, umfasst.
  8. Kopfgetragenes elektronisches Gerät mit: einer Bilderfassungseinheit; einer Displayeinheit zum Anzeigen einer virtuellen Szene; eine erste Bestimmungseinheit zum Bestimmen, ob das kopfgetragene elektronische Gerät von einer ersten Position in eine zweite Position gewechselt hat; und eine Verarbeitungseinheit zum Erfassen eines Bildes einer Umgebung, in welcher ein Nutzer des kopfgetragenen elektronischen Gerätes sich befindet, mit der Bilderfassungseinheit und Anzeigen des Bildes, oder eines Teils davon, mittels der Displayeinheit zur Betrachtung durch den Nutzer.
  9. Elektronisches Gerät nach Anspruch 8, wobei die erste Bestimmungseinheit ausgestaltet ist zum Bestimmen, ob sich ein Winkel zwischen dem kopfgetragenen elektronischen Gerät und einer horizontalen Ebene von einem ersten Winkel zu einem zweiten Winkel geändert hat.
  10. Elektronisches Gerät nach Anspruch 9, ferner mit einer zweiten Bestimmungseinheit zum Bestimmen, ob eine Differenz zwischen dem ersten Winkel und dem zweiten Winkel innerhalb eines vorgegebenen Winkelbereiches liegt.
  11. Elektronisches Gerät nach einem der Ansprüche 8 bis 10, wobei die erste Bestimmungseinheit ausgestaltet ist zum Bestimmen, ob sich eine Distanz zwischen einem Schwerpunkt des kopfgetragenen elektronischen Gerätes und einem vorgegebenen Referenzpunkt von einer ersten Distanz zu einer zweiten Distanz geändert hat.
  12. Elektronisches Gerät nach Anspruch 11, ferner mit einer zweiten Bestimmungseinheit zum Bestimmen, ob eine Differenz zwischen der ersten Distanz und der zweiten Distanz innerhalb eines vorgegebenen Distanzbereiches liegt.
  13. Elektronisches Gerät nach einem der Ansprüche 8 bis 12, wobei die erste Bestimmungseinheit ausgestaltet ist zum Bestimmen, ob sich eine Richtung, in welche die Displayeinheit gerichtet ist, von einer ersten Richtung zu einer zweiten Richtung geändert hat.
  14. Elektronisches Gerät nach Anspruch 13, ferner mit einer zweiten Bestimmungseinheit zum Bestimmen, ob ein Winkel zwischen der ersten Richtung und der zweiten Richtung größer als eine vorgegebene Winkelschwelle ist.
  15. Elektronisches Gerät mit einem Display; einem Sensor; einer Informationsverarbeitungseinheit zum Erhalten von Umgebungsinformation über eine reale Umgebung, in welcher sich das Display befindet, durch Einsatz des Sensors und zum Erzeugen von Sicherheitswarnungsinformation basierend auf der Umgebungsinformation; und eine Displaysteuereinheit zum Anzeigen einer virtuellen Szene, welche unabhängig von der realen Umgebung ist, zusammen mit der Sicherheitswarnungsinformation mittels des Displays.
  16. Elektronisches Gerät nach Anspruch 15, wobei die Sicherheitswarnungsinformation Hindernisinformation und Verkehrsbedingungsinformation aufweist.
  17. Elektronisches Gerät nach Anspruch 16, wobei die Displaysteuereinheit ferner aufweist: eine Detektionsuntereinheit zum Detektieren einer aktuellen Distanz zwischen dem Nutzer und einem Hindernis, welches mit der in der Sicherheitswarnungsinformation enthaltenen Hindernisinformation assoziiert ist, während die virtuelle Szene angezeigt wird; eine Bestimmungsuntereinheit zum Bestimmen, ob die aktuelle Distanz kürzer als eine vorgegebene Distanz ist; und eine Steuerungsuntereinheit zum Anzeigen der Sicherheitswarnungsinformation in der virtuellen Szene, wenn die aktuelle Distanz kürzer als die vorgegebene Distanz ist.
  18. Elektronisches Gerät nach Anspruch 16 oder 17, wobei die Displaysteuereinheit ferner aufweist: eine Detektionsuntereinheit zum Detektieren einer aktuellen Distanz zwischen dem Nutzer und einem Hindernis, welches mit der in der Sicherheitswarnungsinformation enthaltenen Hindernisinformation assoziiert ist, während die virtuelle Szene angezeigt wird; und eine Steuerungsuntereinheit zum Anzeigen eines Bildes der Umgebung der realen Welt anstelle der virtuellen Szene, wenn die aktuelle Distanz kürzer als eine vorgegebene Distanz ist.
  19. Elektronisches Gerät nach einem der Ansprüche 15 bis 18, wobei die Sicherheitswarnungsinformation wenigstens eines der Folgenden aufweist: Hindernisbildinformation zum Identifizieren eines Hindernisses in der realen Umgebung, welches mit der Hindernisinformation assoziiert ist; Textinformation zum Identifizieren einer Distanz zwischen dem Hindernis und einem Orientierungspunkt in der virtuellen Szene; Bildwiedergabeinformation zum Identifizieren einer Verkehrsbedingung in der realen Umgebung; und Identifizierungsinformation zum Identifizieren eines sicheren Bereiches für Aktivitäten in der realen Umgebung.
DE102015104511.7A 2014-09-09 2015-03-25 Verfahren zur Informationsverarbeitung und elektronisches Gerät Pending DE102015104511A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201410456690.1A CN104216520B (zh) 2014-09-09 2014-09-09 一种信息处理方法及电子设备
CN201410456690.1 2014-09-09
CN201410468803.X 2014-09-15
CN201410468803.XA CN104267805A (zh) 2014-09-15 2014-09-15 一种信息处理方法及头戴式电子设备

Publications (1)

Publication Number Publication Date
DE102015104511A1 true DE102015104511A1 (de) 2016-03-10

Family

ID=55358578

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015104511.7A Pending DE102015104511A1 (de) 2014-09-09 2015-03-25 Verfahren zur Informationsverarbeitung und elektronisches Gerät

Country Status (2)

Country Link
US (1) US20160070343A1 (de)
DE (1) DE102015104511A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019072483A1 (de) * 2017-10-12 2019-04-18 Audi Ag Verfahren zum betreiben einer am kopf tragbaren elektronischen anzeigeeinrichtung und anzeigesystem zum anzeigen eines virtuellen inhalts

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160056133A (ko) * 2014-11-11 2016-05-19 삼성전자주식회사 이미지 표시 제어 방법 및 이를 지원하는 장치
US10685211B2 (en) * 2015-08-04 2020-06-16 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
CN106125927B (zh) 2016-06-23 2019-11-29 捷开通讯(深圳)有限公司 图像处理系统及方法
CN111583418A (zh) * 2016-06-30 2020-08-25 联想(北京)有限公司 一种虚拟场景的控制方法及电子设备
JP6696331B2 (ja) * 2016-07-06 2020-05-20 富士ゼロックス株式会社 情報処理装置、画像形成システムおよびプログラム
US10769854B2 (en) * 2016-07-12 2020-09-08 Tyco Fire & Security Gmbh Holographic technology implemented security solution
US10681340B2 (en) * 2016-12-07 2020-06-09 Samsung Electronics Co., Ltd. Electronic device and method for displaying image
US10627635B2 (en) * 2017-08-02 2020-04-21 Microsoft Technology Licensing, Llc Transitioning into a VR environment and warning HMD users of real-world physical obstacles
CN111512211B (zh) 2017-12-20 2022-06-21 伊奎蒂公司 增强现实显示系统
CN108830967B (zh) * 2018-09-27 2023-11-10 云南电网有限责任公司电力科学研究院 一种可视化的电力巡视方法及装置
EP3734418A1 (de) * 2019-05-03 2020-11-04 XRSpace CO., LTD. Kopfmontiertes anzeigesystem mit fähigkeit zur anzeige einer virtuellen szene und einer karte einer realen umgebung in einem bild-in-bild-modus, zugehöriges verfahren und zugehöriges nicht-flüchtiges computerlesbares speichermedium
CN115002598B (zh) * 2022-05-26 2024-02-13 歌尔股份有限公司 耳机模式控制方法、耳机设备、头戴式设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337963A (ja) * 2002-05-17 2003-11-28 Seiko Epson Corp 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体
US7639935B2 (en) * 2007-03-28 2009-12-29 Sony Ericsson Mobile Communications Ab Zoom control
US8063929B2 (en) * 2007-05-31 2011-11-22 Eastman Kodak Company Managing scene transitions for video communication
JP5809925B2 (ja) * 2010-11-02 2015-11-11 オリンパス株式会社 画像処理装置、それを備えた画像表示装置及び撮像装置、画像処理方法、並びに画像処理プログラム
CN103167276A (zh) * 2011-12-19 2013-06-19 富泰华工业(深圳)有限公司 车辆监控系统和车辆监控方法
US9219901B2 (en) * 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display
US9630105B2 (en) * 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019072483A1 (de) * 2017-10-12 2019-04-18 Audi Ag Verfahren zum betreiben einer am kopf tragbaren elektronischen anzeigeeinrichtung und anzeigesystem zum anzeigen eines virtuellen inhalts
US11364441B2 (en) 2017-10-12 2022-06-21 Audi Ag Method for operating an electronic display device wearable on the head and display system for displaying virtual content

Also Published As

Publication number Publication date
US20160070343A1 (en) 2016-03-10

Similar Documents

Publication Publication Date Title
DE102015104511A1 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
US11032536B2 (en) Generating a three-dimensional preview from a two-dimensional selectable icon of a three-dimensional reality video
DE102015100930B4 (de) Steuerung von verbesserter Kommunikation zwischen entfernt befindlichen Teilnehmern/Teilnehmerinnen mittels erweiterter und virtueller Realität
Smolyanskiy et al. Stereoscopic first person view system for drone navigation
Vishwanath et al. Retinal blur and the perception of egocentric distance
DE60225933T2 (de) Tragbare virtuelle realität
US10681341B2 (en) Using a sphere to reorient a location of a user in a three-dimensional virtual reality video
CN109246463B (zh) 用于显示弹幕的方法和装置
DE102017115208A1 (de) 2D-Video mit der Option für projiziertes Betrachten in einem modellierten 3D-Raum
DE112017004647T5 (de) Informationsverarbeitungsvorrichtung und Verfahren und Programm
DE112016004634T5 (de) Produktion und Verpsackung von Entertainment-Daten für virtuelle Realität
DE202013012457U1 (de) Digitale Vorrichtung
DE102020124815A1 (de) System und vorrichtung für benutzergesteuerte virtuelle kamera für volumetrisches video
WO2015136250A1 (en) Interactive information display
JP2020042807A (ja) フォービエイテッド・レンダリング・システムおよび方法
DE112018006666T5 (de) Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm
DE112017006836T5 (de) Informationsverarbeitungsgerät, informationsverarbeitungsverfahren und programm
US10885651B2 (en) Information processing method, wearable electronic device, and processing apparatus and system
DE112017005766T5 (de) Telepräsenzsystem
US11032535B2 (en) Generating a three-dimensional preview of a three-dimensional video
DE112019002353T5 (de) Techniken zum umschalten zwischen immersionsebenen
US11099392B2 (en) Stabilized and tracked enhanced reality images
DE112017001660T5 (de) Datenverarbeitungseinrichtung, Datenverarbeitungsverfahren und computerlesbares Medium
DE112021000578T5 (de) Informationsverarbeitungsvorrichtung und informationsverarbeitungsendgerät
DE112018005224T5 (de) Anzeigevorrichtung und Anzeigevorrichtungssteuerverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed