-
HINTERGRUND
-
Augmented-Reality Geräte, z.B. Datenhelme, welche für eine erweiterte Realität verwendet werden, stellen einem Benutzer eine verbesserte Anzeige und interaktive Fähigkeiten bereit. Typischerweise erweitert ein Datenhelm die Sicht des Benutzers mit virtuellen Objekten, z.B. Anwendungsdaten, angezeigten Animationen, ausführbaren Icons usw. Diese virtuellen Objekte sind ausgelegt, um das Erlebnis des Benutzers dahingehend zu verbessern, was als „erweiterte Realität” bezeichnet wurde. Ein oder mehrere Sensoren ermöglicht bzw. ermöglichen es einem Benutzer, Eingaben, z.B. Gesteneingaben, Spracheingaben usw., bereitzustellen, um mit den angezeigten virtuellen Objekten in einem Arbeitsbereich zu interagieren.
-
Existierende Systeme (Geräte und Software) für erweiterte Realität beruhen darauf, dass der Benutzer Eingaben bereitstellt, um eine bestimmte Funktionalität umzusetzen oder zu verwenden. Damit ein Benutzer beispielsweise einen Kommunikationsarbeitsbereich aufruft, der zum Beispiel eine Videokommunikationsanwendung umfasst, muss ein Benutzer eine Eingabe bereitstellen, die angibt, dass diese bestimmte Funktionalität erwünscht ist, um den Arbeitsbereich für erweiterte Realität zu konfigurieren. Falls ein Benutzer eine Zeichnung erstellen möchte, indem er Gesten bereitstellt, muss der Benutzer ebenso durch eine geeignete Eingabe einleiten, dass eine Zeichenfähigkeit benötigt wird. Die existierenden Lösungen verfügen somit nicht über das Konzept von kontextbewussten Arbeitsbereichen und von virtuellen Objekten oder Elementen, die in einem bestimmten Umfeld für erweiterte Realität vorhanden sein sollen.
-
KURZDARSTELLUNG
-
Kurz gesagt stellt ein Aspekt ein Verfahren bereit, das folgende Schritte umfasst: Empfangen von Daten an einem Datenhelm, die ein kontextuelles Umfeld angeben; Identifizieren, unter Verwendung eines Prozessors, des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern, unter Verwendung eines Prozessors, der Daten, die von dem Datenhelm angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen.
-
Ein anderer Aspekt stellt ein Gerät bereit, das Folgendes umfasst: einen Datenhelm; eine Anzeige, die mit dem Datenhelm gekoppelt ist; einen Prozessor, der operativ mit der Anzeige gekoppelt ist; einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind zum: Empfangen von Daten, die ein kontextuelles Umfeld angeben; Identifizieren des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern der Daten, die auf der Anzeige angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen.
-
Ein weiterer Aspekt stellt ein System bereit, das Folgendes umfasst: eine Vielzahl von Sensoren; einen Datenhelm; eine Anzeige, die mit dem Datenhelm gekoppelt ist; einen Prozessor, der operativ mit der Anzeige gekoppelt ist; einen Speicher, der Anweisungen speichert, die durch den Prozessor ausführbar sind zum: Empfangen von Daten, die ein kontextuelles Umfeld angeben, von einem oder mehreren der Vielzahl von Sensoren; Identifizieren des kontextuellen Umfeldes unter Verwendung der Daten; und Ändern der Daten, die auf der Anzeige angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld, wobei die geänderten Daten ein oder mehrere virtuelle Objekte umfassen.
-
Das Vorstehende ist eine Zusammenfassung und kann somit Vereinfachungen, Verallgemeinerungen und fehlende Einzelheiten umfassen; folglich wird der Fachmann verstehen, dass die Kurzdarstellung rein erläuternd ist und keineswegs dazu gedacht ist, einschränkend zu sein.
-
Zum besseren Verständnis der Ausführungsformen zusammen mit anderen und weiteren Merkmalen und Vorteilen derselben wird auf die nachstehende Beschreibung in Verbindung mit den beiliegenden Zeichnungen gesehen Bezug genommen. Der Umfang der Erfindung wird in den beiliegenden Ansprüchen ausgewiesen.
-
KURZE BESCHREIBUNG DER VERSCHIEDENEN ANSICHTEN DER ZEICHNUNGEN
-
Es zeigen:
-
1 ein Beispiel der Schaltungen eines Informationshandhabungsgerätes.
-
2 ein anderes Beispiel der Schaltungen eines Informationshandhabungsgerätes.
-
3 ein Beispiel des Bereitstellens eines Arbeitsbereichs für eine erweiterte Realität, der sich basierend auf einem kontextuellen Umfeld ändert.
-
AUSFÜHRLICHE BESCHREIBUNG
-
Es versteht sich ohne Weiteres, dass die Bestandteile der Ausführungsformen, wie sie hierin allgemein beschrieben und in den Figuren abgebildet sind, zusätzlich zu den beschriebenen Ausführungsbeispielen in vielen verschiedenen Konfigurationen angeordnet und ausgelegt sein können. Somit ist die nachstehende ausführlichere Beschreibung der Ausführungsbeispiele, wie in den Figuren dargestellt, nicht dazu gedacht, den Umfang der beanspruchten Ausführungsformen einzuschränken, sondern ist nur für Ausführungsbeispiele repräsentativ.
-
Eine Bezugnahme in der gesamten vorliegenden Beschreibung auf „eine Ausführungsform” (oder ähnliche Ausdrücke) bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder ein bestimmtes Kennzeichen, das bzw. die in Verbindung mit der Ausführungsform beschrieben wird bzw. werden, in mindestens einer Ausführungsform enthalten ist. Somit bezieht sich das Vorkommen der Redewendungen „bei einer Ausführungsform” und dergleichen an verschiedenen Stellen in der gesamten vorliegenden Beschreibung nicht unbedingt immer auf die gleiche Ausführungsform.
-
Ferner können die beschriebenen Merkmale, Strukturen oder Kennzeichen in einer beliebigen geeigneten Art in einer oder mehreren Ausführungsformen kombiniert werden. In der nachstehenden Beschreibung werden zahlreiche spezifische Einzelheiten bereitgestellt, um ein gründliches Verständnis der Ausführungsformen bereitzustellen. Der Fachmann auf diesem Gebiet wird jedoch erkennen, dass die diversen Ausführungsformen ohne eine oder mehrere der spezifischen Einzelheiten oder mit anderen Verfahren, Bauteilen, Materialien und so weiter in die Praxis umgesetzt werden können. In anderen Fällen werden hinlänglich bekannte Strukturen, Materialien oder Vorgänge der Übersichtlichkeit halber nicht gezeigt oder ausführlich beschrieben.
-
Da die existierenden Lösungen nicht über das Konzept von kontextbewussten Arbeitsbereichen und virtuellen Elementen oder Objekten, die für ein bestimmtes Umfeld für erweiterte Realität geeignet sind, verfügen, bestimmt eine Ausführungsform automatisch ein kontextuelles Umfeld, in dem das Gerät (z.B. ein Datenhelm) gerade arbeitet. Ein kontextuelles Umfeld ist ein aktueller Verwendungskontext (z.B. eine körperliche Aktivität im Innenbereich, eine körperliche Aktivität im Außenbereich, Spielen im Innenbereich, ein Arbeitsumfeld im Innenbereich, ein Arbeitsumfeld im Außenbereich, ein Nicht-Arbeitsumfeld zu Hause, ein Reiseumfeld, ein soziales Medienumfeld, ein Verhaltensmuster usw.). Eine Ausführungsform markiert oder verknüpft automatisch (oder über die Verwendung einer Benutzereingabe) virtuelle Objekte oder Elemente (diese Begriffe werden hier austauschbar verwendet) mit einem definierten Arbeitsbereich in einem Umfeld für erweiterte Realität. Definierte Arbeitsbereiche können automatisch umgesetzt werden, d.h. es werden bestimmte virtuelle Objekte angezeigt, insbesondere wird eine bestimmte Funktionalität aktiviert usw., basierend darauf, dass ein kontextuelles Umfeld erkannt wird.
-
Beispielsweise kann eine Ausführungsform erkennen, dass der Benutzer bei der Arbeit ist, oder ein Spiel spielt, oder sich an einem Flughafen befindet, wobei eine Ausführungsform jede Erkennung eines unterschiedlichen kontextuellen Umfeldes als Auslöser verwendet, um einen spezifisch angepassten Arbeitsbereich automatisch abzurufen und umzusetzen, z.B. um bestimmte virtuelle Objekte anzuzeigen, die für das erkannte kontextuelle Umfeld geeignet sind. Die virtuellen Objekte und andere Kennzeichen eines Arbeitsbereichs, die für jedes kontextuelle Umfeld geeignet sind, können durch eine Standardregel, durch eine vorhergehende Benutzereingabe (z.B. manuelles Markieren, wie es hierin beschrieben wird) oder eine Kombination davon identifiziert werden. Ein Vorteil eines derartigen Ansatzes gegenüber den existierenden Lösungen besteht darin, für den Endbenutzer praktischer zu sein, indem virtuelle Elemente, die für einen definierten Arbeitsbereich und eine kontextuelle Situation relevant sind, schnell in das Blickfeld gebracht werden.
-
Virtuelle Elemente können automatisch markiert werden, indem Typen von virtuellen Objekten, die zusammen oder nacheinander verwendet werden, kontextabhängig korreliert werden (z.B. beim Radfahren, Aufzeichnen der Fahrt, Zeigen eines virtuellen Objekts für die Herzfrequenz während der Fahrt usw.). Automatische kontextuelle Erkennungsdaten können von Sensordaten entweder von Sensoren, die an einem Augmented-Reality Gerät angebracht sind, oder von entfernten Sensoren oder beiden stammen; ebenso können andere Datenquellen, die mit dem Augmented-Reality Gerät kommunizieren, Daten bereitstellen, die verwendet werden, um ein kontextuelles Umfeld zu bestimmen. Beispiele von Sensoren und Datenquellen umfassen ohne Einschränkung unter anderem ein GPS-System, eine Kamera, einen Beschleunigungsmesser, ein Gyroskop, ein Mikrofon, einen Windmesser und ein Infrarot-Thermometer.
-
Virtuelle Elemente können durch eine Auswahlgeste oder über eine andere Benutzeraktion manuell markiert werden. Virtuelle Elemente, die mit einem definierten Arbeitsbereich markiert sind (z.B. ein Rollenspiel-(RPG)Arbeitsbereich, ein Radfahrarbeitsbereich usw.), erscheinen, wenn der Benutzer das nächste Mal den definierten Arbeitsbereich (z.B. RPG, Radfahren usw.) aufruft. Falls ein Benutzer beispielsweise einen Arbeitsbereich „Radfahren” und einen Arbeitsbereich „RPG-Spiel” erstellt hat, kann der Arbeitsbereich „Radfahren” angezeigte virtuelle Objekte enthalten, wie etwa Kartenanwendungsdaten, Tachometeranwendungsdaten, eine Kameraanwendung und Daten von Herzfrequenzmessgeräten. Diese virtuellen Elemente können die Ansicht des Arbeitsbereichs „Radfahren” definieren. Falls ein Benutzer einen Arbeitsbereich „RPG-Spiel” erstellt hat, kann dieser Arbeitsbereich ein RPG-Spiel (die angezeigten Daten desselben), ein ausführbares Objekt für eine Bildschirmkopie oder eine Videoaufzeichnung und ein Browser-Objekt im Blickfeld enthalten.
-
Die abgebildeten Ausführungsbeispiele werden am besten mit Bezug auf die Figuren verständlich. Die nachstehende Beschreibung ist dazu gedacht, rein beispielhaft zu sein und bildet nur gewisse Ausführungsbeispiele ab.
-
Obwohl diverse andere Schaltkreise, Schaltungen oder Bauteile in Informationshandhabungsgeräten verwendet werden können, umfasst mit Bezug auf die Schaltungen 100 von tragbaren Geräten, wie etwa eines Datenhelms, oder anderen kleinen mobilen Plattformen, z.B. eines Smartphones und/oder Tablets, ein in 1 abgebildetes Beispiel System-on-Chip Design, welches beispielsweise bei Tablets, tragbaren Geräten oder anderen mobilen Computerplattformen vorzufinden ist. Die Software und der oder die Prozessoren sind in einem einzigen Chip 110 kombiniert. Die Prozessoren umfassen interne arithmetische Einheiten, Register, Cachespeicher, Busse, E/A-Anschlüsse usw., wie es in der Technik wohlbekannt ist. Interne Busse und dergleichen sind von verschiedenen Herstellern abhängig, doch im Wesentlichen können alle Peripheriegeräte (120) an einem einzigen Chip 110 angebracht werden. Die Schaltungen 100 kombinieren den Prozessor, die Speichersteuerung und den E/A-Steuerknoten alle zusammen in einen einzigen Chip 110. Derartige Systeme 100 verwenden typischerweise auch kein SATA, PCI oder LPC. Übliche Schnittstellen umfassen beispielsweise SDIO und I2C.
-
Es gibt Stromverwaltungschips 130, z.B. eine Batterieverwaltungseinheit, BMU, die den Strom verwalten, wie er beispielsweise über eine aufladbare Batterie 140 zugeführt wird, die man durch Anschließen an eine Stromquelle (nicht gezeigt) aufladen kann. Bei mindestens einer Bauform wird ein einziger Chip, wie etwa 110, verwendet, um eine BIOS-artige Funktionalität und einen DRAM-Speicher bereitzustellen.
-
Das System 100 umfasst typischerweise einen oder mehrere von einem drahtlosen Weitverkehrsnetz-(WWAN)Transceiver 150 und einem drahtlosen lokalen Netzwerk-(WLAN)Transceiver 160 zum Anschließen an diverse Netzwerke, wie etwa Telekommunikationsnetzwerke (WAN) und drahtlose Internet-Geräte, z.B. Zugriffspunkten, die eine WiFi®-Verbindung bieten. Zudem sind für gewöhnlich Geräte 120, z.B. drahtlose Kurzstrecken-Kommunikationsgeräte, wie etwa ein BLUETOOTH-Radio, ein BLUETOOTH LE-Radio, ein Nahfeld-Kommunikationsgerät usw., zum drahtlosen Kommunizieren mit nahegelegenen Geräten enthalten, wie es hierin noch beschrieben wird. Das System 100 umfasst häufig einen Berührungsbildschirm 170 zum Eingeben und Anzeigen/Wiedergeben von Daten, der geändert werden kann, um einen Datenhelm zu umfassen, der zwei- oder dreidimensionale Anzeigeobjekte, z.B. virtuelle Objekte, wie hierin beschrieben, bereitstellt. Eine Kamera kann als zusätzliches Gerät 120 enthalten sein, z.B. zum Erkennen einer Benutzergesteneingabe, zum Aufnehmen von Bildern (Fotos, Videomaterial) usw. Das System 100 umfasst typischerweise auch diverse Speichergeräte, beispielsweise einen Flash-Speicher 180 und einen SDRAM 190.
-
2 bildet ein Blockdiagramm eines anderen Beispiels der Schaltkreise, Schaltungen oder Bauteile eines Informationshandhabungsgerätes ab. Das in 2 abgebildete Beispiel kann Computersystemen, wie etwa der THINKPAD-Serie von PCs, die von Lenovo (US) Inc. aus Morrisville, NC, verkauft wird, oder anderen Geräten entsprechen. Wie es aus der vorliegenden Beschreibung hervorgeht, können die Ausführungsformen andere Merkmale oder nur einige der Merkmale des in 2 abgebildeten Beispiels umfassen.
-
Das Beispiel aus 2 umfasst einen so genannten Chipsatz 210 (eine Gruppe integrierter Schaltungen bzw. Chips, die zusammenarbeiten, Chipsätze) mit einer Architektur, die je nach Hersteller (beispielsweise INTEL, AMD, ARM usw.) unterschiedlich sein kann. INTEL ist ein eingetragenes Warenzeichen von Intel Corporation in den Vereinigten Staaten und anderen Ländern. AMD ist ein eingetragenes Warenzeichen von Advanced Micro Devices, Inc. in den Vereinigten Staaten und anderen Ländern. ARM ist ein nicht eingetragenes Warenzeichen von ARM Holdings plc in den Vereinigten Staaten und anderen Ländern. Die Architektur des Chipsatzes 210 umfasst eine Kern- und Speichersteuerungsgruppe 220 und einen E/A-Steuerknoten 250, der Informationen (beispielsweise Daten, Signale, Befehle usw.) über eine Direct Management Interface (DMI) 242 oder einen Link-Controller 244 austauscht. In 2 ist die DMI 242 eine Chip-zu-Chip-Schnittstelle (gelegentlich auch als Verknüpfung zwischen einer „Northbridge” und einer „Southbridge” bezeichnet). Die Kern- und Speichersteuerungsgruppe 220 umfasst einen oder mehrere Prozessoren 222 (beispielsweise Einzel- oder Mehrkern) und einen Speicher-Steuerknoten 226, die Informationen über einen Front Side Bus (FSB) 224 austauschen; es sei zu beachten, dass die Bauteile der Gruppe 220 in einen Chip integriert sein können, der die herkömmliche „Northbridge-” Architektur ersetzt. Ein oder mehrere Prozessoren 222 umfasst bzw. umfassen interne arithmetische Einheiten, Register, Cachespeicher, Busse, E/A-Anschlüsse usw., wie es in der Technik wohlbekannt ist.
-
In 2 bildet der Speicher-Steuerknoten 226 eine Schnittstelle mit dem Speicher 240 (um beispielsweise eine Unterstützung für eine Art von RAM bereitzustellen, die man als „Systemspeicher” oder „Speicher” bezeichnen kann). Der Speicher-Steuerknoten 226 umfasst ferner eine Niederspannungs-Differenzialsignalisierungs-(LVDS)Schnittstelle 232 für ein Anzeigegerät 292 (z.B. einen CRT, einen Flachbildschirm, einen Berührungsbildschirm usw.). Ein Block 238 umfasst gewisse Technologien, die über die LVDS-Schnittstelle 232 unterstützt werden können (z.B. serielles digitales Video, HDMI/DVI, DisplayPort). Der Speicher-Steuerknoten 226 umfasst auch eine PCI-Express-Schnittstelle (PCI-E) 234, die diskrete Grafik 236 unterstützen kann.
-
In 2 umfasst der E/A-Steuerknoten 250 eine SATA-Schnittstelle 251 (beispielsweise für HDDs, SDDs, 280 usw.), eine PCI-E-Schnittstelle 252 (beispielsweise für drahtlose Verbindungen 282), eine USB-Schnittstelle 253 (beispielsweise für Geräte 284, wie etwa einen Digitalisierer, eine Tastatur, Mäuse, Kameras, Telefone, Mikrofone, Speichermittel, andere angeschlossene Geräte usw.), eine Netzwerkschnittstelle 254 (beispielsweise LAN), eine GPIO-Schnittstelle 255, eine LPC-Schnittstelle 270 (für ASICs 271, einen TPM 272, einen Super-E/A 273, einen Firmware-Knoten 274, eine BIOS-Unterstützung 275 sowie diverse Arten von Speicher 276, wie etwa ROM 277, Flash 278 und NVRAM 279), eine Stromverwaltungsschnittstelle 261, eine Taktgeberschnittstelle 262, eine Audioschnittstelle 263 (beispielsweise für die Lautsprecher 294), eine TCO-Schnittstelle 264, eine Systemverwaltungsbus-Schnittstelle 265 und SPI-Flash 266, die ein BIOS 268 und Boot-Code 290 umfassen können. Der E/A-Steuerknoten 250 kann eine Gigabit-Ethernet-Unterstützung umfassen.
-
Beim Einschalten kann das System konfiguriert sein, um den Boot-Code 290 für das BIOS 268 auszuführen, der in dem SPI-Flash 266 gespeichert ist, und verarbeitet anschließend Daten unter der Kontrolle von einem oder mehreren Betriebssystemen und von Anwendungs-Software (wie beispielsweise im Systemspeicher 240 gespeichert). Ein Betriebssystem kann an einer beliebigen von diversen Stellen gespeichert sein und kann beispielsweise gemäß den Anweisungen des BIOS 268 zugänglich sein. Wie hierin beschrieben, kann ein Gerät eine geringere oder größere Anzahl von Merkmalen umfassen als sie in dem System aus 2 gezeigt werden.
-
Schaltungen von Informationshandhabungsgeräten, wie beispielsweise in 1 oder 2 angesprochen, können bei Geräten oder Systemen von Geräten, die ein Erlebnis erweiterter Realität für den Benutzer bereitstellen, verwendet werden. Als nicht einschränkendes Beispiel können die in 1 angesprochenen Schaltungen in einem Datenhelm enthalten sein, wohingegen die Schaltungen, die in 2 angesprochen werden, in einem persönlichen Computergerät verwendet werden können, mit welchem ein Datenhelm in Verbindung steht.
-
Mit Bezug auf 3 ist ein Beispiel des Bereitstellens von Übergängen eines kontextuellen Umfeldes eines Arbeitsbereichs für erweiterte Realität abgebildet. Bei einem Augmented-Reality Gerät, z.B. bei einem Datenhelm und einem oder mehreren verknüpften Prozessoren und Hardware, wird eine standardmäßige Anzeige, z.B. ein Arbeitsbereich, der über angezeigte virtuelle Objekte verfügt, basierend auf einer standardmäßigen Reihe oder einem Satz von Funktionen, die durch das Augmented-Reality Gerät bereitgestellt werden, bereitgestellt. Somit werden, wie abgebildet, standardmäßige Einstellungen eines Augmented-Reality Gerätes (ARD-Einstellungen in 3) und/oder benutzerausgewählte Einstellungen (d.h. manuelle Änderungen an der Standardanzeige) bei 301 bereitgestellt. Bei existierenden Systemen muss der Benutzer einen gewissen Kontext bereitstellen, um die Anzeigeneinstellungen zu ändern, d.h. er muss eine Eingabe bereitstellen, um verschiedene, eine größere oder kleinere Anzahl von virtuellen Objekten oder Elementen in das Blickfeld zu bringen, um den Arbeitsbereich zu ändern oder spezifisch anzupassen.
-
Dagegen bestimmt eine Ausführungsform automatisch ein kontextuelles Umfeld und passt den Arbeitsbereich an oder ändert diesen, z.B. durch Anpassen der virtuellen Objekte, die in der Arbeitsbereichsansicht vorgelegt werden, basierend auf dem bestimmten kontextuellen Umfeld. Beispielsweise empfängt eine Ausführungsform bei 302 an dem Datenhelm Daten, die ein kontextuelles Umfeld angeben. Dies kann diverse verschiedene Daten umfassen, die ebenso über viele verschiedene Möglichkeiten empfangen werden können. Beispielsweise kann eine Ausführungsform Daten von einem oder mehreren Board-Sensoren empfangen, die Daten bereitstellen, die das kontextuelle Umfeld angeben. Der eine oder die mehreren Sensoren kann bzw. können räumlich mit dem Datenhelm gekoppelt sein. Als spezifisches Beispiel kann ein bordeigener Beschleunigungsmesser Bewegungsdaten bereitstellen, um anzugeben, dass das kontextuelle Umfeld eine Bewegung umfasst, ein bordeigener GPS-Sensor kann Standortdaten von einem GPS-System erzielen, um anzugeben, dass sich das Gerät an einem bestimmten geografischen Standort befindet, bordeigene Licht- und Temperatursensoren können Daten bereitstellen, die angeben, dass sich das Gerät im Freien befindet, eine bordeigene Tachometeranwendung kann Daten bereitstellen, um anzugeben, dass sich das Gerät mit einer bestimmten Geschwindigkeit bewegt, usw. Die Daten, die das kontextuelle Umfeld angeben, können ebenso von einem entfernten Gerät erzielt werden, z.B. einem anderen tragbaren Gerät, das über Sensoren verfügt, die in Kommunikation mit dem Datenhelm stehen, einer Laptop- oder anderem persönlichen elektronischen Gerät, das in Kommunikation mit dem Datenhelm steht, usw.
-
Die diversen Daten, die ein kontextuelles Umfeld angeben, werden dann verwendet, um ein kontextuelles Umfeld zu identifizieren, d.h. um einen bekannten Verwendungskontext zu identifizieren. Somit kann eine Ausführungsform die eine oder die mehreren obigen beispielhaften Dateneingaben nehmen und diese verarbeiten, um ein kontextuelles Umfeld des Radfahrens zu identifizieren. Falls bei 303 ein kontextuelles Umfeld identifiziert wird, ändert eine Ausführungsform bei 304 die Daten, die von dem Datenhelm angezeigt werden, basierend auf dem identifizierten kontextuellen Umfeld. Falls somit bei 303 ein kontextuelles Umfeld des Radfahrens identifiziert wurde, ändert eine Ausführungsform die existierende (z.B. standardmäßige) Arbeitsbereichsansicht automatisch, damit sie ein oder mehrere virtuelle Objekte umfasst, das bzw. die mit dem Radfahren verknüpft ist bzw. sind.
-
Die Änderung, die bei 304 umgesetzt wird, kann das Anzeigen eines vorbestimmten Satzes von virtuellen Objekten umfassen, die zu dem identifizierten kontextuellen Umfeld passen. Beispielsweise kann ein Benutzer zuvor einen Arbeitsbereich „Radfahren” erstellt haben, der virtuelle Objekte enthält, wie etwa Kartenanwendungsdaten, Tachometeranwendungsdaten, eine Kameraanwendung und Daten von Herzfrequenzmessgeräten. Diese virtuellen Objekte können bei 304 für den Benutzer automatisch angezeigt werden. Ebenso kann, falls das bei 303 identifizierte kontextuelle Umfeld ein RPG-Umfeld ist, wie es beispielsweise über eine Kommunikation zwischen dem Datenhelm und einer nahegelegenen Spielkonsole bestimmt wird, die Änderung bei 304 das Anzeigen eines ausführbaren Objekts zur Bildschirmkopie oder Videoaufzeichnung zusätzlich zu den Spielanwendungsdaten umfassen. Wenn somit ein kontextuelles Umfeld identifiziert wird, muss ein Benutzer keine manuellen oder anderen Eingaben bereitstellen, um den Arbeitsbereich spezifisch anzupassen. Falls bei 303 kein kontextuelles Umfeld identifiziert wird, kann der vorherige oder standardmäßige Arbeitsbereich wie abgebildet verwendet werden.
-
Das Konzept eines kontextuellen Umfeldes ist nicht auf ein bestimmtes erkanntes räumliches Umfeld eingeschränkt (z.B. Außenbereich statt Innenbereich, Arbeit statt zu Hause usw.). Vielmehr kann ein kontextuelles Umfeld eine Sequenz von Arbeitsschritten oder ein anderes Verhaltensmuster betreffen, wie es beispielsweise über Speichern und Abfragen eines Benutzerverlaufs erlernt wird. Als spezifisches Beispiel kann das bei 303 identifizierte kontextuelle Umfeld eine Identifizierung einer Reihe oder eines Musters von bekannten Gewohnheiten umfassen, wie etwa das Öffnen einer spezifischen Abspielliste und das Aufrufen einer Herzfrequenzmessung oder einer anderen Fitnessanwendung. Bei einem derartigen Fall kann das bei 303 identifizierte kontextuelle Umfeld dieses Muster umfassen, und das Ändern des angezeigten Arbeitsbereichs bei 304 kann eine bekannte nächste Aktion umfassen, z.B. das Hinzufügen zu der Anzeige oder das Entfernen von der Anzeige eines virtuellen Objekts basierend auf der identifizierten Sequenz oder dem Muster. Als spezifisches Beispiel kann eine Ausführungsform ein virtuelles Kommunikationsobjekt entfernen und als Reaktion auf das Erkennen eines derartigen Musters ein virtuelles Kameraobjekt anzeigen. Dies kann wiederum auf einem erlernten Verlauf basieren (z.B. dass der Benutzer während Fitnessaktivitäten typischerweise Fotos oder Videomaterial aufnimmt, jedoch keine Textkommunikationsanwendung verwendet) und/oder auf einer allgemeinen Regel basieren (z.B. dass Benutzer generell während Fitnessaktivitäten Fotos oder Videomaterial aufnehmen, jedoch keine Textkommunikationsanwendung verwenden).
-
In einem Arbeitsbereich werden diverse virtuelle Objekte angezeigt. Beispielsweise kann bzw. können das eine oder die mehreren virtuellen Objekte Anwendungs-Icons, anwendungsgenerierte Daten, eine Anwendungsfunktion (z.B. das Ermöglichen einer Gesteneingabe, das Ermöglichen einer Spracheingabe usw.) oder eine Kombination davon umfassen.
-
Wie hierin beschrieben, bietet eine Ausführungsform einem Benutzer die Möglichkeit, bestimmte Arbeitsbereiche (einschließlich virtueller Objekte) zu speichern und diese mit einem bestimmten kontextuellen Umfeld (z.B. einem Heimumfeld, einem Arbeitsumfeld, einem Abendumfeld, einem Muster der Verwendung verwandter Anwendungen oder Funktionen usw.) zu verknüpfen. Beispielsweise kann eine Ausführungsform eine Benutzereingabe erkennen, die ein virtuelles Objekt mit einem aktuellen kontextuellen Umfeld markiert und eine Verknüpfung zwischen dem virtuellen Objekt und der kontextuellen Umgebung speichert. Dies ermöglicht es einer Ausführungsform, das kontextuelle Umfeld zu erkennen und den angezeigten Arbeitsbereich automatisch zu ändern, indem das zuvor markierte virtuelle Objekt abgerufen und angezeigt wird.
-
Eine Ausführungsform verbessert daher die Benutzerfreundlichkeit eines Augmented-Reality Gerätes als solches, indem sie Übergänge zwischen verschiedenen Arbeitsbereichen basierend auf einem erkannten kontextuellen Umfeld ermöglicht. Dies reduziert die notwendige Benutzereingabe, die benötigt wird, um den Arbeitsbereich für erweiterte Realität spezifisch anzupassen. Für Benutzer, die mit derartigen Geräten nicht vertraut sind oder das Bereitstellen gewisser Eingaben (z.B. Gesten- oder Spracheingaben statt herkömmlichen Tastatur- oder Berührungsbildschirmeingaben) nicht gewöhnt sind, erleichtert eine derartige Automatisierung der Einstellungen den Aufwand für den Benutzer im Hinblick auf das Verstehen der Fähigkeiten des Augmented-Reality Gerätes erheblich.
-
Wie es der Fachmann verstehen wird, können diverse Aspekte als System, Verfahren oder Geräteprogrammprodukt ausgebildet sein. Entsprechend können Aspekte die Form einer Ausführungsform ganz aus Hardware oder einer Ausführungsform mit Software, die hierin alle allgemein als „Schaltung”, „Modul” oder „System” bezeichnet werden, annehmen. Ferner können Aspekte die Form eines Geräteprogrammprodukts annehmen, das als ein oder mehrere gerätelesbare Medien ausgebildet ist, in denen gerätelesbarer Programmcode verkörpert ist.
-
Es sei zu beachten, dass die hierin beschriebenen diversen Funktionen unter Verwendung von Anweisungen umgesetzt werden können, die auf einem gerätelesbaren Speichermedium, wie etwa einem Nicht-Signalspeichergerät, gespeichert sind und von einem Prozessor ausgeführt werden. Ein Speichergerät kann beispielsweise ein elektronisches, magnetisches, elektromagnetisches oder Halbleiter-System, -Vorrichtung oder -Gerät oder eine geeignete Kombination derselben sein. Genauere Beispiele des Speichergerätes würden Folgendes umfassen: eine tragbare Computerdiskette, eine Festplatte, einen Arbeitsspeicher (RAM), einen Festwertspeicher (ROM), einen löschbaren programmierbaren Festwertspeicher (EPROM oder Flash-Speicher), eine Lichtleitfaser, einen tragbaren Compact Disk Festwertspeicher (CD-ROM), ein magnetisches Speichergerät oder eine beliebige geeignete Kombination derselben. In Zusammenhang mit der vorliegenden Druckschrift ist ein Speichergerät kein Signal, und umfasst der Begriff „nicht transitorisch” alle Medien außer Signalmedien.
-
Programmcode zum Ausführen von Operationen kann in einer beliebigen Kombination von einer oder mehreren Programmiersprachen verfasst sein. Der Programmcode kann vollständig auf einem einzigen Gerät, teilweise auf einem einzigen Gerät, als selbstständiges Software-Paket, teilweise auf einem einzigen Gerät und teilweise auf einem anderen Gerät oder vollständig auf dem anderen Gerät ausgeführt werden. In manchen Fällen können die Geräte über eine beliebige Art von Verbindung oder Netzwerk verbunden werden, wozu ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN) gehören, oder kann die Verbindung über andere Geräte (beispielsweise über das Internet unter Verwendung eines Internet Service Providers), über drahtlose Verbindungen, z.B. Nahfeldkommunikation, oder über eine verkabelte Verbindung, wie etwa über eine USB-Verbindung, hergestellt werden.
-
Es werden hierin Ausführungsbeispiele mit Bezug auf die Figuren beschrieben, die beispielhafte Verfahren, Geräte und Programmprodukte gemäß diversen Ausführungsbeispielen abbilden. Es versteht sich, dass die Aktionen und die Funktionalität mindestens teilweise durch Programmanweisungen umgesetzt werden können. Diese Programmanweisungen können einem Prozessor eines Gerätes, eines speziellen Informationshandhabungsgerätes, oder eines anderen programmierbaren Datenverarbeitungsgerätes bereitgestellt werden, um eine Maschine zu ergeben, so dass die Anweisungen, die über einen Prozessor des Gerätes ausgeführt werden, die vorgegebenen Funktionen/Aktionen umsetzen.
-
Es sei zu beachten, dass obwohl spezifische Blöcke in den Figuren verwendet werden und eine bestimmte Reihenfolge von Blöcken abgebildet wurde, diese keine einschränkenden Beispiele sind. In bestimmten Zusammenhängen können zwei oder mehrere Blöcke kombiniert werden, kann ein Block in zwei oder mehrere Blöcke unterteilt werden, oder können bestimmte Blöcke je nach Bedarf umgeordnet oder umgestellt werden, da die ausdrücklich abgebildeten Beispiele nur zur Beschreibung verwendet werden und nicht als einschränkend auszulegen sind.
-
Wie sie hier verwendet wird, kann die Einzahlform „ein, eine, ein” als die Mehrzahlform „ein oder mehrere” umfassend ausgelegt werden, soweit nicht eindeutig anderweitig angegeben.
-
Die vorliegende Offenbarung wurde zum Zweck der Erläuterung und Beschreibung vorgelegt, ist aber nicht dazu gedacht, erschöpfend oder einschränkend zu sein. Zahlreiche Modifikationen und Variationen werden für den Fachmann ersichtlich sein. Die Ausführungsbeispiele wurden gewählt und beschrieben, um die Grundlagen und die praktische Anwendung zu erklären, und um es anderen Fachleuten zu ermöglichen, die Offenbarung für diverse Ausführungsformen zu verstehen, wie sie für die bestimmte beabsichtigte Verwendung geeignet sind.
-
Obwohl somit hier erläuternde Ausführungsbeispiele mit Bezug auf die beiliegenden Figuren beschrieben wurden, versteht es sich, dass diese Beschreibung nicht einschränkend ist und dass diverse andere Änderungen und Modifikationen hieran vom Fachmann vorgenommen werden können, ohne den Umfang oder Geist der Offenbarung zu verlassen.