DE102016122716A1 - Arbeitsbereichsübergänge in einer erweiterten Realität, basierend auf einem kontextuellen Umfeld - Google Patents

Arbeitsbereichsübergänge in einer erweiterten Realität, basierend auf einem kontextuellen Umfeld Download PDF

Info

Publication number
DE102016122716A1
DE102016122716A1 DE102016122716.1A DE102016122716A DE102016122716A1 DE 102016122716 A1 DE102016122716 A1 DE 102016122716A1 DE 102016122716 A DE102016122716 A DE 102016122716A DE 102016122716 A1 DE102016122716 A1 DE 102016122716A1
Authority
DE
Germany
Prior art keywords
data
contextual environment
virtual
environment
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016122716.1A
Other languages
English (en)
Inventor
Axel Ramirez Flores
Russell Speight VanBlon
Justin Tyler Dubs
Robert James Kapinos
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102016122716A1 publication Critical patent/DE102016122716A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J50/00Arrangements specially adapted for use on cycles not provided for in main groups B62J1/00 - B62J45/00
    • B62J50/20Information-providing devices
    • B62J50/21Information-providing devices intended to provide information to rider or passenger
    • B62J50/22Information-providing devices intended to provide information to rider or passenger electronic, e.g. displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B22/00Exercising apparatus specially adapted for conditioning the cardio-vascular system, for training agility or co-ordination of movements
    • A63B22/06Exercising apparatus specially adapted for conditioning the cardio-vascular system, for training agility or co-ordination of movements with support elements performing a rotating cycling movement, i.e. a closed path movement
    • A63B22/0605Exercising apparatus specially adapted for conditioning the cardio-vascular system, for training agility or co-ordination of movements with support elements performing a rotating cycling movement, i.e. a closed path movement performing a circular movement, e.g. ergometers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B2071/0658Position or arrangement of display
    • A63B2071/0661Position or arrangement of display arranged on the user
    • A63B2071/0666Position or arrangement of display arranged on the user worn on the head or face, e.g. combined with goggles or glasses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J50/00Arrangements specially adapted for use on cycles not provided for in main groups B62J1/00 - B62J45/00
    • B62J50/20Information-providing devices
    • B62J50/21Information-providing devices intended to provide information to rider or passenger
    • B62J50/225Mounting arrangements therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Architecture (AREA)
  • Cardiology (AREA)
  • Vascular Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Ausführungsform stellt ein Verfahren bereit, das folgende Schritte umfasst: Empfangen von Daten, die ein kontextuelles Umfeld angeben, an einem Datenhelm; Identifizieren, unter Verwendung eines Prozessors, des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern, unter Verwendung eines Prozessors, der Daten, die von dem Datenhelm angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen. Es werden weitere Aspekte beschrieben und beansprucht.

Description

  • HINTERGRUND
  • Augmented-Reality Geräte, z.B. Datenhelme, welche für eine erweiterte Realität verwendet werden, stellen einem Benutzer eine verbesserte Anzeige und interaktive Fähigkeiten bereit. Typischerweise erweitert ein Datenhelm die Sicht des Benutzers mit virtuellen Objekten, z.B. Anwendungsdaten, angezeigten Animationen, ausführbaren Icons usw. Diese virtuellen Objekte sind ausgelegt, um das Erlebnis des Benutzers dahingehend zu verbessern, was als „erweiterte Realität” bezeichnet wurde. Ein oder mehrere Sensoren ermöglicht bzw. ermöglichen es einem Benutzer, Eingaben, z.B. Gesteneingaben, Spracheingaben usw., bereitzustellen, um mit den angezeigten virtuellen Objekten in einem Arbeitsbereich zu interagieren.
  • Existierende Systeme (Geräte und Software) für erweiterte Realität beruhen darauf, dass der Benutzer Eingaben bereitstellt, um eine bestimmte Funktionalität umzusetzen oder zu verwenden. Damit ein Benutzer beispielsweise einen Kommunikationsarbeitsbereich aufruft, der zum Beispiel eine Videokommunikationsanwendung umfasst, muss ein Benutzer eine Eingabe bereitstellen, die angibt, dass diese bestimmte Funktionalität erwünscht ist, um den Arbeitsbereich für erweiterte Realität zu konfigurieren. Falls ein Benutzer eine Zeichnung erstellen möchte, indem er Gesten bereitstellt, muss der Benutzer ebenso durch eine geeignete Eingabe einleiten, dass eine Zeichenfähigkeit benötigt wird. Die existierenden Lösungen verfügen somit nicht über das Konzept von kontextbewussten Arbeitsbereichen und von virtuellen Objekten oder Elementen, die in einem bestimmten Umfeld für erweiterte Realität vorhanden sein sollen.
  • KURZDARSTELLUNG
  • Kurz gesagt stellt ein Aspekt ein Verfahren bereit, das folgende Schritte umfasst: Empfangen von Daten an einem Datenhelm, die ein kontextuelles Umfeld angeben; Identifizieren, unter Verwendung eines Prozessors, des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern, unter Verwendung eines Prozessors, der Daten, die von dem Datenhelm angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen.
  • Ein anderer Aspekt stellt ein Gerät bereit, das Folgendes umfasst: einen Datenhelm; eine Anzeige, die mit dem Datenhelm gekoppelt ist; einen Prozessor, der operativ mit der Anzeige gekoppelt ist; einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind zum: Empfangen von Daten, die ein kontextuelles Umfeld angeben; Identifizieren des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern der Daten, die auf der Anzeige angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen.
  • Ein weiterer Aspekt stellt ein System bereit, das Folgendes umfasst: eine Vielzahl von Sensoren; einen Datenhelm; eine Anzeige, die mit dem Datenhelm gekoppelt ist; einen Prozessor, der operativ mit der Anzeige gekoppelt ist; einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind zum: Empfangen von Daten, die ein kontextuelles Umfeld angeben, von einem oder mehreren der Vielzahl von Sensoren; Identifizieren des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern der Daten, die auf der Anzeige angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen.
  • Das Vorstehende ist eine Zusammenfassung und kann somit Vereinfachungen, Verallgemeinerungen und fehlende Einzelheiten umfassen; folglich wird der Fachmann verstehen, dass die Kurzdarstellung rein erläuternd ist und keineswegs dazu gedacht ist, einschränkend zu sein.
  • Zum besseren Verständnis der Ausführungsformen zusammen mit anderen und weiteren Merkmalen und Vorteilen derselben wird auf die nachstehende Beschreibung in Verbindung mit den beiliegenden Zeichnungen gesehen Bezug genommen. Der Umfang der Erfindung wird in den beiliegenden Ansprüchen ausgewiesen.
  • KURZE BESCHREIBUNG DER VERSCHIEDENEN ANSICHTEN DER ZEICHNUNGEN
  • Es zeigen:
  • 1 ein Beispiel der Schaltungen eines Informationshandhabungsgerätes.
  • 2 ein anderes Beispiel der Schaltungen eines Informationshandhabungsgerätes.
  • 3 ein Beispiel des Bereitstellens eines Arbeitsbereichs für eine erweiterte Realität, der sich basierend auf einem kontextuellen Umfeld ändert.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Es versteht sich ohne Weiteres, dass die Bestandteile der Ausführungsformen, wie sie hierin allgemein beschrieben und in den Figuren abgebildet sind, zusätzlich zu den beschriebenen Ausführungsbeispielen in vielen verschiedenen Konfigurationen angeordnet und ausgelegt sein können. Somit ist die nachstehende ausführlichere Beschreibung der Ausführungsbeispiele, wie in den Figuren dargestellt, nicht dazu gedacht, den Umfang der beanspruchten Ausführungsformen einzuschränken, sondern ist nur für Ausführungsbeispiele repräsentativ.
  • Eine Bezugnahme in der gesamten vorliegenden Beschreibung auf „eine Ausführungsform” (oder ähnliche Ausdrücke) bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder ein bestimmtes Kennzeichen, das bzw. die in Verbindung mit der Ausführungsform beschrieben wird bzw. werden, in mindestens einer Ausführungsform enthalten ist. Somit bezieht sich das Vorkommen der Redewendungen „bei einer Ausführungsform” und dergleichen an verschiedenen Stellen in der gesamten vorliegenden Beschreibung nicht unbedingt immer auf die gleiche Ausführungsform.
  • Ferner können die beschriebenen Merkmale, Strukturen oder Kennzeichen in einer beliebigen geeigneten Art in einer oder mehreren Ausführungsformen kombiniert werden. In der nachstehenden Beschreibung werden zahlreiche spezifische Einzelheiten bereitgestellt, um ein gründliches Verständnis der Ausführungsformen bereitzustellen. Der Fachmann auf diesem Gebiet wird jedoch erkennen, dass die diversen Ausführungsformen ohne eine oder mehrere der spezifischen Einzelheiten oder mit anderen Verfahren, Bauteilen, Materialien und so weiter in die Praxis umgesetzt werden können. In anderen Fällen werden hinlänglich bekannte Strukturen, Materialien oder Vorgänge der Übersichtlichkeit halber nicht gezeigt oder ausführlich beschrieben.
  • Da die existierenden Lösungen nicht über das Konzept von kontextbewussten Arbeitsbereichen und virtuellen Elementen oder Objekten, die für ein bestimmtes Umfeld für erweiterte Realität geeignet sind, verfügen, bestimmt eine Ausführungsform automatisch ein kontextuelles Umfeld, in dem das Gerät (z.B. ein Datenhelm) gerade arbeitet. Ein kontextuelles Umfeld ist ein aktueller Verwendungskontext (z.B. eine körperliche Aktivität im Innenbereich, eine körperliche Aktivität im Außenbereich, Spielen im Innenbereich, ein Arbeitsumfeld im Innenbereich, ein Arbeitsumfeld im Außenbereich, ein Nicht-Arbeitsumfeld zu Hause, ein Reiseumfeld, ein soziales Medienumfeld, ein Verhaltensmuster usw.). Eine Ausführungsform markiert oder verknüpft automatisch (oder über die Verwendung einer Benutzereingabe) virtuelle Objekte oder Elemente (diese Begriffe werden hier austauschbar verwendet) mit einem definierten Arbeitsbereich in einem Umfeld für erweiterte Realität. Definierte Arbeitsbereiche können automatisch umgesetzt werden, d.h. es werden bestimmte virtuelle Objekte angezeigt, insbesondere wird eine bestimmte Funktionalität aktiviert usw., basierend darauf, dass ein kontextuelles Umfeld erkannt wird.
  • Beispielsweise kann eine Ausführungsform erkennen, dass der Benutzer bei der Arbeit ist, oder ein Spiel spielt, oder sich an einem Flughafen befindet, wobei eine Ausführungsform jede Erkennung eines unterschiedlichen kontextuellen Umfeldes als Auslöser verwendet, um einen spezifisch angepassten Arbeitsbereich automatisch abzurufen und umzusetzen, z.B. um bestimmte virtuelle Objekte anzuzeigen, die für das erkannte kontextuelle Umfeld geeignet sind. Die virtuellen Objekte und andere Kennzeichen eines Arbeitsbereichs, die für jedes kontextuelle Umfeld geeignet sind, können durch eine Standardregel, durch eine vorhergehende Benutzereingabe (z.B. manuelles Markieren, wie es hierin beschrieben wird) oder eine Kombination davon identifiziert werden. Ein Vorteil eines derartigen Ansatzes gegenüber den existierenden Lösungen besteht darin, für den Endbenutzer praktischer zu sein, indem virtuelle Elemente, die für einen definierten Arbeitsbereich und eine kontextuelle Situation relevant sind, schnell in das Blickfeld gebracht werden.
  • Virtuelle Elemente können automatisch markiert werden, indem Typen von virtuellen Objekten, die zusammen oder nacheinander verwendet werden, kontextabhängig korreliert werden (z.B. beim Radfahren, Aufzeichnen der Fahrt, Zeigen eines virtuellen Objekts für die Herzfrequenz während der Fahrt usw.). Automatische kontextuelle Erkennungsdaten können von Sensordaten entweder von Sensoren, die an einem Augmented-Reality Gerät angebracht sind, oder von entfernten Sensoren oder beiden stammen; ebenso können andere Datenquellen, die mit dem Augmented-Reality Gerät kommunizieren, Daten bereitstellen, die verwendet werden, um ein kontextuelles Umfeld zu bestimmen. Beispiele von Sensoren und Datenquellen umfassen ohne Einschränkung unter anderem ein GPS-System, eine Kamera, einen Beschleunigungsmesser, ein Gyroskop, ein Mikrofon, einen Windmesser und ein Infrarot-Thermometer.
  • Virtuelle Elemente können durch eine Auswahlgeste oder über eine andere Benutzeraktion manuell markiert werden. Virtuelle Elemente, die mit einem definierten Arbeitsbereich markiert sind (z.B. ein Rollenspiel-(RPG)Arbeitsbereich, ein Radfahrarbeitsbereich usw.), erscheinen, wenn der Benutzer das nächste Mal den definierten Arbeitsbereich (z.B. RPG, Radfahren usw.) aufruft. Falls ein Benutzer beispielsweise einen Arbeitsbereich „Radfahren” und einen Arbeitsbereich „RPG-Spiel” erstellt hat, kann der Arbeitsbereich „Radfahren” angezeigte virtuelle Objekte enthalten, wie etwa Kartenanwendungsdaten, Tachometeranwendungsdaten, eine Kameraanwendung und Daten von Herzfrequenzmessgeräten. Diese virtuellen Elemente können die Ansicht des Arbeitsbereichs „Radfahren” definieren. Falls ein Benutzer einen Arbeitsbereich „RPG-Spiel” erstellt hat, kann dieser Arbeitsbereich ein RPG-Spiel (die angezeigten Daten desselben), ein ausführbares Objekt für eine Bildschirmkopie oder eine Videoaufzeichnung und ein Browser-Objekt im Blickfeld enthalten.
  • Die abgebildeten Ausführungsbeispiele werden am besten mit Bezug auf die Figuren verständlich. Die nachstehende Beschreibung ist dazu gedacht, rein beispielhaft zu sein und bildet nur gewisse Ausführungsbeispiele ab.
  • Obwohl diverse andere Schaltkreise, Schaltungen oder Bauteile in Informationshandhabungsgeräten verwendet werden können, umfasst mit Bezug auf die Schaltungen 100 von tragbaren Geräten, wie etwa eines Datenhelms, oder anderen kleinen mobilen Plattformen, z.B. eines Smartphones und/oder Tablets, ein in 1 abgebildetes Beispiel System-on-Chip Design, welches beispielsweise bei Tablets, tragbaren Geräten oder anderen mobilen Computerplattformen vorzufinden ist. Die Software und der oder die Prozessoren sind in einem einzigen Chip 110 kombiniert. Die Prozessoren umfassen interne arithmetische Einheiten, Register, Cachespeicher, Busse, E/A-Anschlüsse usw., wie es in der Technik wohlbekannt ist. Interne Busse und dergleichen sind von verschiedenen Herstellern abhängig, doch im Wesentlichen können alle Peripheriegeräte (120) an einem einzigen Chip 110 angebracht werden. Die Schaltungen 100 kombinieren den Prozessor, die Speichersteuerung und den E/A-Steuerknoten alle zusammen in einen einzigen Chip 110. Derartige Systeme 100 verwenden typischerweise auch kein SATA, PCI oder LPC. Übliche Schnittstellen umfassen beispielsweise SDIO und I2C.
  • Es gibt Stromverwaltungschips 130, z.B. eine Batterieverwaltungseinheit, BMU, die den Strom verwalten, wie er beispielsweise über eine aufladbare Batterie 140 zugeführt wird, die man durch Anschließen an eine Stromquelle (nicht gezeigt) aufladen kann. Bei mindestens einer Bauform wird ein einziger Chip, wie etwa 110, verwendet, um eine BIOS-artige Funktionalität und einen DRAM-Speicher bereitzustellen.
  • Das System 100 umfasst typischerweise einen oder mehrere von einem drahtlosen Weitverkehrsnetz-(WWAN)Transceiver 150 und einem drahtlosen lokalen Netzwerk-(WLAN)Transceiver 160 zum Anschließen an diverse Netzwerke, wie etwa Telekommunikationsnetzwerke (WAN) und drahtlose Internet-Geräte, z.B. Zugriffspunkten, die eine WiFi®-Verbindung bieten. Zudem sind für gewöhnlich Geräte 120, z.B. drahtlose Kurzstrecken-Kommunikationsgeräte, wie etwa ein BLUETOOTH-Radio, ein BLUETOOTH LE-Radio, ein Nahfeld-Kommunikationsgerät usw., zum drahtlosen Kommunizieren mit nahegelegenen Geräten enthalten, wie es hierin noch beschrieben wird. Das System 100 umfasst häufig einen Berührungsbildschirm 170 zum Eingeben und Anzeigen/Wiedergeben von Daten, der geändert werden kann, um einen Datenhelm zu umfassen, der zwei- oder dreidimensionale Anzeigeobjekte, z.B. virtuelle Objekte, wie hierin beschrieben, bereitstellt. Eine Kamera kann als zusätzliches Gerät 120 enthalten sein, z.B. zum Erkennen einer Benutzergesteneingabe, zum Aufnehmen von Bildern (Fotos, Videomaterial) usw. Das System 100 umfasst typischerweise auch diverse Speichergeräte, beispielsweise einen Flash-Speicher 180 und einen SDRAM 190.
  • 2 bildet ein Blockdiagramm eines anderen Beispiels der Schaltkreise, Schaltungen oder Bauteile eines Informationshandhabungsgerätes ab. Das in 2 abgebildete Beispiel kann Computersystemen, wie etwa der THINKPAD-Serie von PCs, die von Lenovo (US) Inc. aus Morrisville, NC, verkauft wird, oder anderen Geräten entsprechen. Wie es aus der vorliegenden Beschreibung hervorgeht, können die Ausführungsformen andere Merkmale oder nur einige der Merkmale des in 2 abgebildeten Beispiels umfassen.
  • Das Beispiel aus 2 umfasst einen so genannten Chipsatz 210 (eine Gruppe integrierter Schaltungen bzw. Chips, die zusammenarbeiten, Chipsätze) mit einer Architektur, die je nach Hersteller (beispielsweise INTEL, AMD, ARM usw.) unterschiedlich sein kann. INTEL ist ein eingetragenes Warenzeichen von Intel Corporation in den Vereinigten Staaten und anderen Ländern. AMD ist ein eingetragenes Warenzeichen von Advanced Micro Devices, Inc. in den Vereinigten Staaten und anderen Ländern. ARM ist ein nicht eingetragenes Warenzeichen von ARM Holdings plc in den Vereinigten Staaten und anderen Ländern. Die Architektur des Chipsatzes 210 umfasst eine Kern- und Speichersteuerungsgruppe 220 und einen E/A-Steuerknoten 250, der Informationen (beispielsweise Daten, Signale, Befehle usw.) über eine Direct Management Interface (DMI) 242 oder einen Link-Controller 244 austauscht. In 2 ist die DMI 242 eine Chip-zu-Chip-Schnittstelle (gelegentlich auch als Verknüpfung zwischen einer „Northbridge” und einer „Southbridge” bezeichnet). Die Kern- und Speichersteuerungsgruppe 220 umfasst einen oder mehrere Prozessoren 222 (beispielsweise Einzel- oder Mehrkern) und einen Speicher-Steuerknoten 226, die Informationen über einen Front Side Bus (FSB) 224 austauschen; es sei zu beachten, dass die Bauteile der Gruppe 220 in einen Chip integriert sein können, der die herkömmliche „Northbridge-” Architektur ersetzt. Ein oder mehrere Prozessoren 222 umfasst bzw. umfassen interne arithmetische Einheiten, Register, Cachespeicher, Busse, E/A-Anschlüsse usw., wie es in der Technik wohlbekannt ist.
  • In 2 bildet der Speicher-Steuerknoten 226 eine Schnittstelle mit dem Speicher 240 (um beispielsweise eine Unterstützung für eine Art von RAM bereitzustellen, die man als „Systemspeicher” oder „Speicher” bezeichnen kann). Der Speicher-Steuerknoten 226 umfasst ferner eine Niederspannungs-Differenzialsignalisierungs-(LVDS)Schnittstelle 232 für ein Anzeigegerät 292 (z.B. einen CRT, einen Flachbildschirm, einen Berührungsbildschirm usw.). Ein Block 238 umfasst gewisse Technologien, die über die LVDS-Schnittstelle 232 unterstützt werden können (z.B. serielles digitales Video, HDMI/DVI, DisplayPort). Der Speicher-Steuerknoten 226 umfasst auch eine PCI-Express-Schnittstelle (PCI-E) 234, die diskrete Grafik 236 unterstützen kann.
  • In 2 umfasst der E/A-Steuerknoten 250 eine SATA-Schnittstelle 251 (beispielsweise für HDDs, SDDs, 280 usw.), eine PCI-E-Schnittstelle 252 (beispielsweise für drahtlose Verbindungen 282), eine USB-Schnittstelle 253 (beispielsweise für Geräte 284, wie etwa einen Digitalisierer, eine Tastatur, Mäuse, Kameras, Telefone, Mikrofone, Speichermittel, andere angeschlossene Geräte usw.), eine Netzwerkschnittstelle 254 (beispielsweise LAN), eine GPIO-Schnittstelle 255, eine LPC-Schnittstelle 270 (für ASICs 271, einen TPM 272, einen Super-E/A 273, einen Firmware-Knoten 274, eine BIOS-Unterstützung 275 sowie diverse Arten von Speicher 276, wie etwa ROM 277, Flash 278 und NVRAM 279), eine Stromverwaltungsschnittstelle 261, eine Taktgeberschnittstelle 262, eine Audioschnittstelle 263 (beispielsweise für die Lautsprecher 294), eine TCO-Schnittstelle 264, eine Systemverwaltungsbus-Schnittstelle 265 und SPI-Flash 266, die ein BIOS 268 und Boot-Code 290 umfassen können. Der E/A-Steuerknoten 250 kann eine Gigabit-Ethernet-Unterstützung umfassen.
  • Beim Einschalten kann das System konfiguriert sein, um den Boot-Code 290 für das BIOS 268 auszuführen, der in dem SPI-Flash 266 gespeichert ist, und verarbeitet anschließend Daten unter der Kontrolle von einem oder mehreren Betriebssystemen und von Anwendungs-Software (wie beispielsweise im Systemspeicher 240 gespeichert). Ein Betriebssystem kann an einer beliebigen von diversen Stellen gespeichert sein und kann beispielsweise gemäß den Anweisungen des BIOS 268 zugänglich sein. Wie hierin beschrieben, kann ein Gerät eine geringere oder größere Anzahl von Merkmalen umfassen als sie in dem System aus 2 gezeigt werden.
  • Schaltungen von Informationshandhabungsgeräten, wie beispielsweise in 1 oder 2 angesprochen, können bei Geräten oder Systemen von Geräten, die ein Erlebnis erweiterter Realität für den Benutzer bereitstellen, verwendet werden. Als nicht einschränkendes Beispiel können die in 1 angesprochenen Schaltungen in einem Datenhelm enthalten sein, wohingegen die Schaltungen, die in 2 angesprochen werden, in einem persönlichen Computergerät verwendet werden können, mit welchem ein Datenhelm in Verbindung steht.
  • Mit Bezug auf 3 ist ein Beispiel des Bereitstellens von Übergängen eines kontextuellen Umfeldes eines Arbeitsbereichs für erweiterte Realität abgebildet. Bei einem Augmented-Reality Gerät, z.B. bei einem Datenhelm und einem oder mehreren verknüpften Prozessoren und Hardware, wird eine standardmäßige Anzeige, z.B. ein Arbeitsbereich, der über angezeigte virtuelle Objekte verfügt, basierend auf einer standardmäßigen Reihe oder einem Satz von Funktionen, die durch das Augmented-Reality Gerät bereitgestellt werden, bereitgestellt. Somit werden, wie abgebildet, standardmäßige Einstellungen eines Augmented-Reality Gerätes (ARD-Einstellungen in 3) und/oder benutzerausgewählte Einstellungen (d.h. manuelle Änderungen an der Standardanzeige) bei 301 bereitgestellt. Bei existierenden Systemen muss der Benutzer einen gewissen Kontext bereitstellen, um die Anzeigeneinstellungen zu ändern, d.h. er muss eine Eingabe bereitstellen, um verschiedene, eine größere oder kleinere Anzahl von virtuellen Objekten oder Elementen in das Blickfeld zu bringen, um den Arbeitsbereich zu ändern oder spezifisch anzupassen.
  • Dagegen bestimmt eine Ausführungsform automatisch ein kontextuelles Umfeld und passt den Arbeitsbereich an oder ändert diesen, z.B. durch Anpassen der virtuellen Objekte, die in der Arbeitsbereichsansicht vorgelegt werden, basierend auf dem bestimmten kontextuellen Umfeld. Beispielsweise empfängt eine Ausführungsform bei 302 an dem Datenhelm Daten, die ein kontextuelles Umfeld angeben. Dies kann diverse verschiedene Daten umfassen, die ebenso über viele verschiedene Möglichkeiten empfangen werden können. Beispielsweise kann eine Ausführungsform Daten von einem oder mehreren Board-Sensoren empfangen, die Daten bereitstellen, die das kontextuelle Umfeld angeben. Der eine oder die mehreren Sensoren kann bzw. können räumlich mit dem Datenhelm gekoppelt sein. Als spezifisches Beispiel kann ein bordeigener Beschleunigungsmesser Bewegungsdaten bereitstellen, um anzugeben, dass das kontextuelle Umfeld eine Bewegung umfasst, ein bordeigener GPS-Sensor kann Standortdaten von einem GPS-System erzielen, um anzugeben, dass sich das Gerät an einem bestimmten geografischen Standort befindet, bordeigene Licht- und Temperatursensoren können Daten bereitstellen, die angeben, dass sich das Gerät im Freien befindet, eine bordeigene Tachometeranwendung kann Daten bereitstellen, um anzugeben, dass sich das Gerät mit einer bestimmten Geschwindigkeit bewegt, usw. Die Daten, die das kontextuelle Umfeld angeben, können ebenso von einem entfernten Gerät erzielt werden, z.B. einem anderen tragbaren Gerät, das über Sensoren verfügt, die in Kommunikation mit dem Datenhelm stehen, einer Laptop- oder anderem persönlichen elektronischen Gerät, das in Kommunikation mit dem Datenhelm steht, usw.
  • Die diversen Daten, die ein kontextuelles Umfeld angeben, werden dann verwendet, um ein kontextuelles Umfeld zu identifizieren, d.h. um einen bekannten Verwendungskontext zu identifizieren. Somit kann eine Ausführungsform die eine oder die mehreren obigen beispielhaften Dateneingaben nehmen und diese verarbeiten, um ein kontextuelles Umfeld des Radfahrens zu identifizieren. Falls bei 303 ein kontextuelles Umfeld identifiziert wird, ändert eine Ausführungsform bei 304 die Daten, die von dem Datenhelm angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld. Falls somit bei 303 ein kontextuelles Umfeld des Radfahrens identifiziert wurde, ändert eine Ausführungsform die existierende (z.B. standardmäßige) Arbeitsbereichsansicht automatisch, damit sie ein oder mehrere virtuelle Objekte umfasst, das bzw. die mit dem Radfahren verknüpft ist bzw. sind.
  • Die Änderung, die bei 304 umgesetzt wird, kann das Anzeigen eines vorbestimmten Satzes von virtuellen Objekten umfassen, die zu dem identifizierten kontextuellen Umfeld passen. Beispielsweise kann ein Benutzer zuvor einen Arbeitsbereich „Radfahren” erstellt haben, der virtuelle Objekte enthält, wie etwa Kartenanwendungsdaten, Tachometeranwendungsdaten, eine Kameraanwendung und Daten von Herzfrequenzmessgeräten. Diese virtuellen Objekte können bei 304 für den Benutzer automatisch angezeigt werden. Ebenso kann, falls das bei 303 identifizierte kontextuelle Umfeld ein RPG-Umfeld ist, wie es beispielsweise über eine Kommunikation zwischen dem Datenhelm und einer nahegelegenen Spielkonsole bestimmt wird, die Änderung bei 304 das Anzeigen eines ausführbaren Objekts zur Bildschirmkopie oder Videoaufzeichnung zusätzlich zu den Spielanwendungsdaten umfassen. Wenn somit ein kontextuelles Umfeld identifiziert wird, muss ein Benutzer keine manuellen oder anderen Eingaben bereitstellen, um den Arbeitsbereich spezifisch anzupassen. Falls bei 303 kein kontextuelles Umfeld identifiziert wird, kann der vorherige oder standardmäßige Arbeitsbereich wie abgebildet verwendet werden.
  • Das Konzept eines kontextuellen Umfeldes ist nicht auf ein bestimmtes erkanntes räumliches Umfeld eingeschränkt (z.B. Außenbereich statt Innenbereich, Arbeit statt zu Hause usw.). Vielmehr kann ein kontextuelles Umfeld eine Sequenz von Arbeitsschritten oder ein anderes Verhaltensmuster betreffen, wie es beispielsweise über Speichern und Abfragen eines Benutzerverlaufs erlernt wird. Als spezifisches Beispiel kann das bei 303 identifizierte kontextuelle Umfeld eine Identifizierung einer Reihe oder eines Musters von bekannten Gewohnheiten umfassen, wie etwa das Öffnen einer spezifischen Abspielliste und das Aufrufen einer Herzfrequenzmessung oder einer anderen Fitnessanwendung. Bei einem derartigen Fall kann das bei 303 identifizierte kontextuelle Umfeld dieses Muster umfassen, und das Ändern des angezeigten Arbeitsbereichs bei 304 kann eine bekannte nächste Aktion umfassen, z.B. das Hinzufügen zu der Anzeige oder das Entfernen von der Anzeige eines virtuellen Objekts basierend auf der identifizierten Sequenz oder dem Muster. Als spezifisches Beispiel kann eine Ausführungsform ein virtuelles Kommunikationsobjekt entfernen und als Reaktion auf das Erkennen eines derartigen Musters ein virtuelles Kameraobjekt anzeigen. Dies kann wiederum auf einem erlernten Verlauf basieren (z.B. dass der Benutzer während Fitnessaktivitäten typischerweise Fotos oder Videomaterial aufnimmt, jedoch keine Textkommunikationsanwendung verwendet) und/oder auf einer allgemeinen Regel basieren (z.B. dass Benutzer generell während Fitnessaktivitäten Fotos oder Videomaterial aufnehmen, jedoch keine Textkommunikationsanwendung verwenden).
  • In einem Arbeitsbereich werden diverse virtuelle Objekte angezeigt. Beispielsweise kann bzw. können das eine oder die mehreren virtuellen Objekte Anwendungs-Icons, anwendungsgenerierte Daten, eine Anwendungsfunktion (z.B. das Ermöglichen einer Gesteneingabe, das Ermöglichen einer Spracheingabe usw.) oder eine Kombination davon umfassen.
  • Wie hierin beschrieben, bietet eine Ausführungsform einem Benutzer die Möglichkeit, bestimmte Arbeitsbereiche (einschließlich virtueller Objekte) zu speichern und diese mit einem bestimmten kontextuellen Umfeld (z.B. einem Heimumfeld, einem Arbeitsumfeld, einem Abendumfeld, einem Muster der Verwendung verwandter Anwendungen oder Funktionen usw.) zu verknüpfen. Beispielsweise kann eine Ausführungsform eine Benutzereingabe erkennen, die ein virtuelles Objekt mit einem aktuellen kontextuellen Umfeld markiert und eine Verknüpfung zwischen dem virtuellen Objekt und der kontextuellen Umgebung speichert. Dies ermöglicht es einer Ausführungsform, das kontextuelle Umfeld zu erkennen und den angezeigten Arbeitsbereich automatisch zu ändern, indem das zuvor markierte virtuelle Objekt abgerufen und angezeigt wird.
  • Eine Ausführungsform verbessert daher die Benutzerfreundlichkeit eines Augmented-Reality Gerätes als solches, indem sie Übergänge zwischen verschiedenen Arbeitsbereichen basierend auf einem erkannten kontextuellen Umfeld ermöglicht. Dies reduziert die notwendige Benutzereingabe, die benötigt wird, um den Arbeitsbereich für erweiterte Realität spezifisch anzupassen. Für Benutzer, die mit derartigen Geräten nicht vertraut sind oder das Bereitstellen gewisser Eingaben (z.B. Gesten- oder Spracheingaben statt herkömmlichen Tastatur- oder Berührungsbildschirmeingaben) nicht gewöhnt sind, erleichtert eine derartige Automatisierung der Einstellungen den Aufwand für den Benutzer im Hinblick auf das Verstehen der Fähigkeiten des Augmented-Reality Gerätes erheblich.
  • Wie es der Fachmann verstehen wird, können diverse Aspekte als System, Verfahren oder Geräteprogrammprodukt ausgebildet sein. Entsprechend können Aspekte die Form einer Ausführungsform ganz aus Hardware oder einer Ausführungsform mit Software, die hierin alle allgemein als „Schaltung”, „Modul” oder „System” bezeichnet werden, annehmen. Ferner können Aspekte die Form eines Geräteprogrammprodukts annehmen, das als ein oder mehrere gerätelesbare Medien ausgebildet ist, in denen gerätelesbarer Programmcode verkörpert ist.
  • Es sei zu beachten, dass die hierin beschriebenen diversen Funktionen unter Verwendung von Anweisungen umgesetzt werden können, die auf einem gerätelesbaren Speichermedium, wie etwa einem Nicht-Signalspeichergerät, gespeichert sind und von einem Prozessor ausgeführt werden. Ein Speichergerät kann beispielsweise ein elektronisches, magnetisches, elektromagnetisches oder Halbleiter-System, -Vorrichtung oder -Gerät oder eine geeignete Kombination derselben sein. Genauere Beispiele des Speichergerätes würden Folgendes umfassen: eine tragbare Computerdiskette, eine Festplatte, einen Arbeitsspeicher (RAM), einen Festwertspeicher (ROM), einen löschbaren programmierbaren Festwertspeicher (EPROM oder Flash-Speicher), eine Lichtleitfaser, einen tragbaren Compact Disk Festwertspeicher (CD-ROM), ein magnetisches Speichergerät oder eine beliebige geeignete Kombination derselben. In Zusammenhang mit der vorliegenden Druckschrift ist ein Speichergerät kein Signal, und umfasst der Begriff „nicht transitorisch” alle Medien außer Signalmedien.
  • Programmcode zum Ausführen von Operationen kann in einer beliebigen Kombination von einer oder mehreren Programmiersprachen verfasst sein. Der Programmcode kann vollständig auf einem einzigen Gerät, teilweise auf einem einzigen Gerät, als selbstständiges Software-Paket, teilweise auf einem einzigen Gerät und teilweise auf einem anderen Gerät oder vollständig auf dem anderen Gerät ausgeführt werden. In manchen Fällen können die Geräte über eine beliebige Art von Verbindung oder Netzwerk verbunden werden, wozu ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN) gehören, oder kann die Verbindung über andere Geräte (beispielsweise über das Internet unter Verwendung eines Internet Service Providers), über drahtlose Verbindungen, z.B. Nahfeldkommunikation, oder über eine verkabelte Verbindung, wie etwa über eine USB-Verbindung, hergestellt werden.
  • Es werden hierin Ausführungsbeispiele mit Bezug auf die Figuren beschrieben, die beispielhafte Verfahren, Geräte und Programmprodukte gemäß diversen Ausführungsbeispielen abbilden. Es versteht sich, dass die Aktionen und die Funktionalität mindestens teilweise durch Programmanweisungen umgesetzt werden können. Diese Programmanweisungen können einem Prozessor eines Gerätes, eines speziellen Informationshandhabungsgerätes, oder eines anderen programmierbaren Datenverarbeitungsgerätes bereitgestellt werden, um eine Maschine zu ergeben, so dass die Anweisungen, die über einen Prozessor des Gerätes ausgeführt werden, die vorgegebenen Funktionen/Aktionen umsetzen.
  • Es sei zu beachten, dass obwohl spezifische Blöcke in den Figuren verwendet werden und eine bestimmte Reihenfolge von Blöcken abgebildet wurde, diese keine einschränkenden Beispiele sind. In bestimmten Zusammenhängen können zwei oder mehrere Blöcke kombiniert werden, kann ein Block in zwei oder mehrere Blöcke unterteilt werden, oder können bestimmte Blöcke je nach Bedarf umgeordnet oder umgestellt werden, da die ausdrücklich abgebildeten Beispiele nur zur Beschreibung verwendet werden und nicht als einschränkend auszulegen sind.
  • Wie sie hier verwendet wird, kann die Einzahlform „ein, eine, ein” als die Mehrzahlform „ein oder mehrere” umfassend ausgelegt werden, soweit nicht eindeutig anderweitig angegeben.
  • Die vorliegende Offenbarung wurde zum Zweck der Erläuterung und Beschreibung vorgelegt, ist aber nicht dazu gedacht, erschöpfend oder einschränkend zu sein. Zahlreiche Modifikationen und Variationen werden für den Fachmann ersichtlich sein. Die Ausführungsbeispiele wurden gewählt und beschrieben, um die Grundlagen und die praktische Anwendung zu erklären, und um es anderen Fachleuten zu ermöglichen, die Offenbarung für diverse Ausführungsformen zu verstehen, wie sie für die bestimmte beabsichtigte Verwendung geeignet sind.
  • Obwohl somit hier erläuternde Ausführungsbeispiele mit Bezug auf die beiliegenden Figuren beschrieben wurden, versteht es sich, dass diese Beschreibung nicht einschränkend ist und dass diverse andere Änderungen und Modifikationen hieran vom Fachmann vorgenommen werden können, ohne den Umfang oder Geist der Offenbarung zu verlassen.

Claims (20)

  1. Verfahren, umfassend folgende Schritte: Empfangen von Daten, die ein kontextuelles Umfeld angeben, an einem Datenhelm; Identifizieren, unter Verwendung eines Prozessors, des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern, unter Verwendung eines Prozessors, der Daten, die von dem Datenhelm angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen.
  2. Verfahren nach Anspruch 1, wobei die Änderung das Anzeigen eines vorbestimmten Satzes von virtuellen Objekten umfasst, die zu dem identifizierten kontextuellen Umfeld passen.
  3. Verfahren nach Anspruch 1, wobei die Änderung das Hinzufügen eines virtuellen Objekts zu der Anzeige basierend auf dem identifizierten kontextuellen Umfeld umfasst.
  4. Verfahren nach Anspruch 1, wobei die Änderung das Entfernen eines virtuellen Objekts von der Anzeige basierend auf dem identifizierten kontextuellen Umfeld umfasst.
  5. Verfahren nach Anspruch 1, wobei das eine oder die mehreren virtuellen Objekte anwendungsgenerierte Daten umfasst bzw. umfassen.
  6. Verfahren nach Anspruch 1, wobei das Empfangen das Empfangen von Daten von einem oder mehreren Sensoren umfasst.
  7. Verfahren nach Anspruch 6, wobei mindestens einer von dem einen oder den mehreren Sensoren räumlich mit dem Datenhelm gekoppelt ist.
  8. Verfahren nach Anspruch 1, ferner umfassend folgende Schritte: Erkennen einer Benutzereingabe, die ein virtuelles Objekt mit dem kontextuellen Umfeld markiert; und Speichern einer Verknüpfung zwischen dem virtuellen Objekt und dem kontextuellen Umfeld.
  9. Verfahren nach Anspruch 8, wobei das Ändern das Abrufen und Anzeigen eines zuvor markierten virtuellen Objekts basierend auf der Benutzereingabe umfasst.
  10. Verfahren nach Anspruch 1, wobei: das kontextuelle Umfeld Radfahren ist; und die Anzeige zwei oder mehrere von einem virtuellen Kartenobjekt, einem virtuellen Geschwindigkeitsobjekt, einem virtuellen Kameraobjekt und einem virtuellen Fitnessobjekt umfasst.
  11. Gerät, umfassend: einen Datenhelm; eine Anzeige, die mit dem Datenhelm gekoppelt ist; einen Prozessor, der operativ mit der Anzeige gekoppelt ist; einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind zum: Empfangen von Daten, die ein kontextuelles Umfeld angeben; Identifizieren des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern der Daten, die auf der Anzeige angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen.
  12. Gerät nach Anspruch 11, wobei das Ändern das Anzeigen eines vorbestimmten Satzes von virtuellen Objekten umfasst, die zu dem identifizierten kontextuellen Umfeld passen.
  13. Gerät nach Anspruch 11, wobei das Ändern das Hinzufügen eines virtuellen Objekts zu der Anzeige basierend auf dem identifizierten kontextuellen Umfeld umfasst.
  14. Gerät nach Anspruch 11, wobei das Ändern das Entfernen eines virtuellen Objekts von der Anzeige basierend auf dem identifizierten kontextuellen Umfeld umfasst.
  15. Gerät nach Anspruch 11, wobei das eine oder die mehreren virtuellen Objekte anwendungsgenerierte Daten umfasst bzw. umfassen.
  16. Gerät nach Anspruch 11, wobei das Empfangen das Empfangen von Daten von einem oder mehreren Sensoren umfasst.
  17. Gerät nach Anspruch 16, wobei das Gerät mindestens einen von dem einen oder den mehreren Sensoren umfasst.
  18. Gerät nach Anspruch 11, wobei die Anweisungen ferner durch den Prozessor ausführbar sind zum: Erkennen einer Benutzereingabe, die ein virtuelles Objekt mit dem kontextuellen Umfeld markiert; und Speichern einer Verknüpfung zwischen dem virtuellen Objekt und dem kontextuellen Umfeld.
  19. Gerät nach Anspruch 18, wobei das Ändern das Abrufen und Anzeigen eines zuvor markierten virtuellen Objekts basierend auf der Benutzereingabe umfasst.
  20. System, umfassend: eine Vielzahl von Sensoren; einen Datenhelm; eine Anzeige, die mit dem Datenhelm gekoppelt ist; einen Prozessor, der operativ mit der Anzeige gekoppelt ist; einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind zum: Empfangen von Daten, die ein kontextuelles Umfeld angeben, von einem oder mehreren der Vielzahl von Sensoren; Identifizieren des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern der Daten, die auf der Anzeige angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen.
DE102016122716.1A 2015-12-09 2016-11-24 Arbeitsbereichsübergänge in einer erweiterten Realität, basierend auf einem kontextuellen Umfeld Pending DE102016122716A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/964,322 2015-12-09
US14/964,322 US20170169611A1 (en) 2015-12-09 2015-12-09 Augmented reality workspace transitions based on contextual environment

Publications (1)

Publication Number Publication Date
DE102016122716A1 true DE102016122716A1 (de) 2017-06-14

Family

ID=58773660

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016122716.1A Pending DE102016122716A1 (de) 2015-12-09 2016-11-24 Arbeitsbereichsübergänge in einer erweiterten Realität, basierend auf einem kontextuellen Umfeld

Country Status (3)

Country Link
US (1) US20170169611A1 (de)
CN (1) CN107024979A (de)
DE (1) DE102016122716A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491166B (zh) * 2017-07-07 2021-03-09 深圳市冠旭电子股份有限公司 一种调节虚拟现实设备参数的方法及虚拟现实设备
US10803674B2 (en) * 2017-11-03 2020-10-13 Samsung Electronics Co., Ltd. System and method for changing a virtual reality environment dynamically
CN108363556A (zh) * 2018-01-30 2018-08-03 百度在线网络技术(北京)有限公司 一种基于语音与增强现实环境交互的方法和系统
US20210225160A1 (en) * 2018-10-09 2021-07-22 Hewlett-Packard Development Company, L.P. Environment signatures and depth perception
US10761694B2 (en) * 2018-12-12 2020-09-01 Lenovo (Singapore) Pte. Ltd. Extended reality content exclusion
US11341274B2 (en) * 2018-12-19 2022-05-24 Elasticsearch B.V. Methods and systems for access controlled spaces for data analytics and visualization
US10782860B2 (en) 2019-02-26 2020-09-22 Elasticsearch B.V. Systems and methods for dynamic scaling in graphical user interfaces
US11477207B2 (en) 2019-03-12 2022-10-18 Elasticsearch B.V. Configurable feature level controls for data
US11240126B2 (en) 2019-04-11 2022-02-01 Elasticsearch B.V. Distributed tracing for application performance monitoring
US11397516B2 (en) 2019-10-24 2022-07-26 Elasticsearch B.V. Systems and method for a customizable layered map for visualizing and analyzing geospatial data
CN111708430A (zh) * 2020-05-08 2020-09-25 江苏杰瑞科技集团有限责任公司 基于增强现实的近场与远场态势综合显示系统及方法
US11699269B2 (en) 2021-08-25 2023-07-11 Bank Of America Corporation User interface with augmented work environments
US20230410159A1 (en) * 2022-06-15 2023-12-21 At&T Intellectual Property I, L.P. Method and system for personalizing metaverse object recommendations or reviews

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090158161A1 (en) * 2007-12-18 2009-06-18 Samsung Electronics Co., Ltd. Collaborative search in virtual worlds
US8830267B2 (en) * 2009-11-16 2014-09-09 Alliance For Sustainable Energy, Llc Augmented reality building operations tool
US8847988B2 (en) * 2011-09-30 2014-09-30 Microsoft Corporation Exercising applications for personal audio/visual system
US20130293530A1 (en) * 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
US9092896B2 (en) * 2012-08-07 2015-07-28 Microsoft Technology Licensing, Llc Augmented reality display of scene behind surface
US10685487B2 (en) * 2013-03-06 2020-06-16 Qualcomm Incorporated Disabling augmented reality (AR) devices at speed
KR20140110584A (ko) * 2013-03-08 2014-09-17 삼성전자주식회사 증강 현실 제공 방법, 저장 매체 및 휴대 단말
US20160144915A1 (en) * 2013-06-17 2016-05-26 Northeastern University Interactive cyclist monitoring and accident prevention system
US11150482B2 (en) * 2015-02-25 2021-10-19 Facebook Technologies, Llc Augmented reality content creation
WO2016187348A1 (en) * 2015-05-18 2016-11-24 Brian Mullins Biometric authentication in a head mounted device

Also Published As

Publication number Publication date
CN107024979A (zh) 2017-08-08
US20170169611A1 (en) 2017-06-15

Similar Documents

Publication Publication Date Title
DE102016122716A1 (de) Arbeitsbereichsübergänge in einer erweiterten Realität, basierend auf einem kontextuellen Umfeld
EP2940555B1 (de) Automatische blickverfolgungskalibrierung
DE102014106579A1 (de) Besondere Gesten für Kamerasteuerungs- und Bildverarbeitungsverfahren
DE112011105941B4 (de) Scoring der Interessantheit von interessanten Bereichen in einem Anzeigeelement
DE102017121697A1 (de) Steuern von Eingabe und Ausgabe auf mehreren Seiten einer Computervorrichtung
DE102016103218A1 (de) Blickbasierte Benachrichtigungsantwort
DE102015110708A1 (de) Kontextbasierte Auswahl eines Kameramodus
DE102010055219A1 (de) Verwenden von multimodaler Eingabe zur Steuerung multipler Objekte auf einem Display
DE102014118109A1 (de) Systeme und Verfahren zum Darstellen von Informationen auf einem Gerät basierend auf einem Eye-Tracking
DE102017115936A1 (de) Systeme und Verfahren zum Aktivieren eines Sprachassistenten und Bereitstellen eines Indikators, dass der Sprachassistent Hilfe zu leisten hat
DE102014002984A1 (de) Gestenvollendungspfadanzeige für gestenbasierte Tastaturen
DE102017115933B4 (de) Koordinieren einer Eingabe an mehreren lokalen Geräten
DE102015108004A1 (de) Darstellen einer Nutzerschnittstelle auf einem ersten Gerät basierend auf der Erfassung eines zweiten Gerätes in einer Umgebung des ersten Geräts
DE102012107810A1 (de) Dynamische Benutzerschnittstelle basierend auf verbundenen Geräten
DE102014117343B4 (de) Erfassen einer Pause in einer akustischen Eingabe in ein Gerät
US20160299666A1 (en) Information processing apparatus, information processing method, and program
DE102015002365A1 (de) Prioritätsbasierte kontextpräemption
DE102014116538B4 (de) Selektives Deaktivieren von Sensoren und dazugehörigen Funktionen
DE102017120697A1 (de) Eye-Tracking Auswahlvalidierung
US20170003858A1 (en) Method and apparatus for context based application grouping in virtual reality
DE102016113914A1 (de) Einfügung von Zeichen bei Spracherkennung
DE102013102284A1 (de) Berührungseingabeeinstellungsmanagement
DE112016005989T5 (de) Zuverlässiges, ausserhalb der reihenfolge liegendes end-to-end-protokoll mit robustem fensterstatusüberlaufmanagement und einem mehrknotensystem durch verwenden desselben
DE102016119948A1 (de) Gestensteuerung mit Hilfe von Tiefenangaben
US20180181289A1 (en) Sizing applications based on display parameters

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE