DE102019102903A1 - Anpassung einer Charakteristik eines Erweiterte-Realität-Inhalts - Google Patents

Anpassung einer Charakteristik eines Erweiterte-Realität-Inhalts Download PDF

Info

Publication number
DE102019102903A1
DE102019102903A1 DE102019102903.1A DE102019102903A DE102019102903A1 DE 102019102903 A1 DE102019102903 A1 DE 102019102903A1 DE 102019102903 A DE102019102903 A DE 102019102903A DE 102019102903 A1 DE102019102903 A1 DE 102019102903A1
Authority
DE
Germany
Prior art keywords
user
characteristic
context
content
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019102903.1A
Other languages
English (en)
Inventor
Russell Speight VanBlon
Robert James Kapinos
Scott Wentao Li
Robert James Norton
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102019102903A1 publication Critical patent/DE102019102903A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Ausführungsform stell ein Verfahren bereit, enthaltend: Anzeigen eines Erweiterte-Realität-Inhalts unter Verwendung eines Prozessors; Bestimmen eines Kontexts, der einem Benutzer zugeordnet ist unter Verwendung eines Prozessors; und Anpassen zumindest einer Charakteristik des Erweiterte-Realität-Inhalts basierend auf dem Kontext und ohne zusätzliche Benutzereingabe. Andere Aspekte sind beschrieben und beansprucht.

Description

  • HINTERGRUND
  • Fortschritte in der Technologie haben zu der Entwicklung von Informationshandhabungsvorrichtungen („Vorrichtungen“) geführt, zum Beispiel Smartphones, Tablet-Vorrichtungen, Kopfgarnitur, und dergleichen, die zum Anzeigen eines Erweiterte-Realität („ER“)-Inhalts ausgebildet sind. Diese ER-fähigen Vorrichtungen können eine Überlagerung von virtuellen Elementen auf eine Live-Ansicht einer physikalischen Umgebung der echten Welt bereitstellen. Die virtuellen Elemente können räumlich mit der physischen Welt registriert werden, so dass die virtuellen Elemente als immersiver Aspekt der physischen Welt wahrgenommen werden können.
  • KURZE ZUSAMMENFASSUNG
  • Zusammenfassend stellt ein Aspekt ein Verfahren bereit, umfassend: Anzeigen eines Erweiterte-Realität-Inhalts unter Verwendung eines Prozessors; Bestimmen eines Kontexts, der einem Benutzer zugeordnet ist unter Verwendung eines Prozessors; und Anpassen zumindest einer Charakteristik des Erweiterte-Realität-Inhalts basierend auf dem Kontext und ohne zusätzliche Benutzereingabe.
  • Ein anderer Aspekt stellt eine Informationshandhabungsvorrichtung bereit, umfassend: einen Prozessor; eine Anzeige; eine Speichervorrichtung, die Instruktionen speichert, die von dem Prozessor ausführbar sind zum: Anzeigen eines Erweiterte-Realität-Inhalts; Bestimmen eines Kontexts, der einem Benutzer zugeordnet ist; und Anpassen zumindest einer Charakteristik des Erweiterte-Realität-Inhalts auf der Anzeige basierend auf dem Kontext und ohne zusätzliche Benutzereingabe.
  • Ein weiterer Aspekt stellt ein Produkt bereit, umfassend: eine Speichervorrichtung, die Code speichert, wobei der Code von einem Prozessor ausführbar ist und umfasst: Code der einen Erweiterte-Realität-Inhalt anzeigt; Code der einen Kontext bestimmt, der einem Benutzer zugeordnet ist; und Code der zumindest eine Charakteristik des Erweiterte-Realität-Inhalts basierend auf dem Kontext und ohne zusätzliche Benutzereingabe anpasst.
  • Das Vorgenannte ist eine Zusammenfassung und kann deshalb Vereinfachungen, Verallgemeinerungen und Auslassungen von Details enthalten; dementsprechend werden Fachmänner anerkennen, dass die Zusammenfassung nur illustrativ ist und nicht gedacht ist, um in irgendeiner Weise zu beschränken.
  • Für ein besseres Verständnis der Ausführungsformen, zusammen mit anderen und weiteren Merkmalen und Vorteilen davon, wird nun Bezug genommen auf die folgende Beschreibung in Verbindung mit den beigefügten Zeichnungen. Der Umfang der Erfindung wird in den angehängten Ansprüchen herausgestellt.
  • Figurenliste
    • 1 illustriert ein Beispiel einer Informationshandhabungsvor-richtungs-Schaltung.
    • 2 illustriert ein anderes Beispiel einer Informationshandhabungsvorrichtungs-Schaltung.
    • 3 illustriert ein Beispielverfahren zum Anpassen zumindest einer Charakteristik von einem angezeigten Erweiterte-Realität-Inhalt.
  • DETAILLIERTE BESCHREIBUNG
  • Es wird leicht verständlich sein, dass die Komponenten der Ausführungsformen, wie im Allgemeinen in den Figuren hierin beschrieben und illustriert, in einer weiten Vielzahl von verschiedenen Konfigurationen angeordnet und ausgebildet sein können, zusätzlich zu den beschriebenen Beispiel-Ausführungsformen. Deshalb beabsichtigt die folgende, detailliertere Beschreibung der Beispiel-Ausführungsformen wie in den Figuren repräsentiert nicht, den Umfang der Ausführungsformen wie beansprucht zu beschränken, sondern soll lediglich Beispiel-Ausführungsformen repräsentieren.
  • Ein Bezug auf „die eine Ausführungsform“ oder „eine Ausführungsform“ (oder dergleichen) in dieser Beschreibung meint, dass ein bestimmtes Merkmal, Struktur oder Charakteristik, die in Verbindung mit der Ausführungsform beschrieben ist, in zumindest einer Ausführungsform enthalten ist. Deshalb bezieht sich das Auftreten der Phrasen „in der einen Ausführungsform“ oder „in einer Ausführungsform“ oder dergleichen an verschiedenen Stellen in dieser Beschreibung nicht zwangsläufig auf dieselbe Ausführungsform.
  • Weiterhin können die beschriebenen Merkmale, Strukturen oder Charakteristiken in jeder passenden Weise in einer oder mehreren Ausführungsformen kombiniert werden. In der folgenden Beschreibung werden zahlreiche spezifische Details bereitgestellt, um ein gründliches Verständnis von Ausführungsformen bereitzustellen. Ein Fachmann wird jedoch erkennen, dass die verschiedenen Ausführungsformen ohne eine oder mehrere der spezifischen Details oder mit anderen Verfahren, Komponenten, Materialien, etc. ausgebildet sein können. In anderen Beispielen sind wohlbekannte Strukturen, Materialien oder Bedienungen nicht im Detail gezeigt oder beschrieben, um Verwirrung zu vermeiden.
  • ER-fähige Vorrichtungen können ausgebildet sein, einem Benutzer praktisch jede Art von ER-Inhalt anzuzeigen. Unter Verwendung dieser Vorrichtungen kann ein Benutzer den Inhalt in einer neuen Weise verarbeiten und damit interagieren. Das Anzeigen von ER-Inhalt kann auch Risiken anzeigen, dass der Inhalt eine Belästigung oder eine Gefahr für den Benutzer ist. Dieses Problem wird besonders verstärkt, wenn der Benutzer eine ER-Kopfgarnitur trägt (z.B. Google Glass ®, Microsoft Hololens ®, etc.). Weiter insbesondere wird, wenn man eine ER-Kopfgarnitur trägt, der ER-Inhalt im Allgemeinen in Sichtfeld eines Benutzers projiziert. In Abhängigkeit der Charakteristiken des ER-Inhalts (z.B. Größe, Form, Farbe, Position, etc.) kann der ER-Inhalt eine Fähigkeit des Benutzers beeinträchtigen, in der realen Welt richtig wahrzunehmen und zu funktionieren. Wenn zum Beispiel ein großes Applikationsfenster vor dem Gesicht des Benutzers angezeigt wird, kann seine Sicht auf dessen Umgebung beeinträchtigt sein. Zusätzlich kann, selbst wenn der ER-Inhalt an einer Randkante eines Sichtfelds des Benutzers angeordnet ist, der Inhalt immer noch ablenkend für den Benutzer sein, insbesondere, wenn der Inhalt animiert ist.
  • Herkömmlicherweise können Benutzer eine oder mehrere Charakteristiken des angezeigten ER-Inhalt anpassen. Jedoch kann, obwohl ein Benutzer eine gewisse Kontrolle darüber hat, wie der ER-Inhalt angezeigt wird, dieser nicht in der Lage sein, Anpassungen rechtzeitig zu machen, insbesondere wenn sich dessen situativer Kontext schnell ändert. Wenn zum Beispiel ein Benutzer große virtuelle Objekte in seinem Sichtfeld angezeigt bekommt und eine Situation auftritt, in der er sich schnell von seinem gegenwärtigen Ort wegbewegen muss, kann der Benutzer bei dem Versuch die Charakteristiken des angezeigten Inhalts anzupassen, sodass dessen Vision von der physikalischen Welt uneingeschränkt ist, Zeit verschwenden. Als solches ist das Bereitstellen von zusätzlicher Eingabe sowohl zeitraubend als auch aufwändig.
  • Dementsprechend stellt eine Ausführungsform ein Verfahren zum automatischen Anpassen zumindest einer Charakteristik eines angezeigten ER-Inhalts bereit, basierend auf einem bestimmten Kontext, der einem Benutzer zugeordnet ist. In einer Ausführungsform kann ER-Inhalt auf einer Anzeige einer ER-fähigen Vorrichtung angezeigt werden. Eine Ausführungsform kann dann einen Kontext, der einem Benutzer zugeordnet ist, bestimmen (z.B. einen Ort des Benutzers, eine Geschwindigkeit des Benutzers, andere Individuen in der Nähe zu dem Benutzer, etc.) und danach zumindest eine Charakteristik des ER-Inhalts (z.B. Größe, Position, Opazität, etc.) basierend auf dem Kontext anpassen. Solch ein Verfahren kann automatisch steuern, wie ER-Inhalt angezeigt wird, sodass ein Benutzer den Inhalt in einer dem Kontext angemessenen Art visualisiert.
  • Die illustrierten Beispiel-Ausführungsformen werden am besten durch Bezugnahme auf die Figuren verstanden werden. Die folgende Beschreibung ist nur als Beispiel gedacht und veranschaulicht einfach einige Beispiel-Ausführungsformen.
  • Während verschiedene andere Schaltkreise, Schaltungen oder Komponenten in Informationshandhabungsvorrichtungen in Bezug auf Smartphone- oder Tablet-Schaltungen 100 verwendet werden können, enthält ein in 1 illustriertes Beispiel ein System-on-Chip-Design, wie es zum Beispiel in Tablets oder anderen mobilen Berechnungsplattformen verwendet wird. Soft-ware und Prozessor(en) sind in einem einzelnen Chip 110 kombiniert. Prozessoren umfassen interne arithmetische Einheiten, Register, Cachespeicher, Busse, I/O-Anschlüsse, etc., wie aus dem Stand der Technik wohlbekannt. Interne Busse und dergleichen hängen von verschiedenen Anbietern ab, aber im Wesentlichen können alle peripheren Vorrichtungen (120) mit einem einzelnen Chip 110 verbunden sein. Die Schaltung 100 kombiniert den Prozessor, Speichersteuerung und I/O-Steuerungszentrale in einem einzelnen Chip 110. Systeme 100 dieser Art verwenden typischerweise auch nicht SATA oder PCI oder LPC. Übliche Schnittstellen enthalten zum Beispiel SDIO und I2C.
  • Es gibt Leistungsverwaltungs-Chip(s) 130, z.B. eine Batterieverwaltungseinheit BMU, die die zum Beispiel durch eine wiederaufladbare Batterie 140, die durch eine Verbindung mit einer Leistungsquelle (nicht gezeigt) wiederaufgeladen wer-den kann, bereitgestellte Leistung verwalten. In zumindest einem Design wird ein einzelner Chip sowie 110 verwendet, um BIOS-ähnliche Funktionalität und DRAM-Speicher zu versorgen.
  • System 100 enthält typischerweise einen oder mehrere von einem WWAN-Sendeempfänger 150 und einem WLAN-Sendeempfänger 160 zum Verbinden mit verschiedenen Netzwerken, so wie Telekommunikationsnetzwerken und drahtlosen Internetvorrichtungen, z.B. Zugangspunkten. Zusätzlich sind Vorrichtungen 120 üblicherweise enthalten, z.B. ein Bildsensor, wie eine Kamera, Audioerfassungsvorrichtung, wie ein Mikrofon, einen Thermalsensor, etc. System 100 enthält oft einen Berührungsbildschirm 170 zur Dateneingabe und -anzeige/-darstellung. System 100 enthält typischerweise auch verschiedene Speichervorrichtungen, zum Beispiel Flash-Speicher 180 und SDRAM 190.
  • 2 bildet ein Blockdiagramm eines anderen Beispiels von Informationshandhabungsvorrichtungs-Schaltkreisen, -Schaltungen oder -Komponenten ab. Das in 2 abgebildete Beispiel kann Berechnungssystemen so wie die THINKPAD-Serie von Personalcomputern, die von Lenovo (US) Inc. aus Morrisville, NC verkauft werden, oder anderen Vorrichtungen entsprechen. Wie aus der Beschreibung hierin offenbar wird, können Ausführungsformen andere Merkmale oder nur einige der in dem Beispiel wie in 2 illustrierten Merkmale enthalten.
  • Das Beispiel von 2 enthält einen sogenannten Chipsatz 210 (eine Gruppe von integrierten Schaltkreisen oder Chips, die zusammenarbeiten, Chipsätze) mit einer Architektur, die abhängig vom Hersteller (zum Beispiel INTEL, AMD, ARM, etc.) variieren kann. INTEL ist eine registrierte Marke der Intel Corporation in den Vereinigten Staaten und anderen Ländern. AMD ist eine registrierte Marke von Advanced Micro Devices, Inc. in den Vereinigten Staaten und anderen Ländern. ARM ist eine nichteingetragene Marke von ARM Holdings plc in den Vereinigten Staaten und anderen Ländern. Die Architektur des Chipsatzes 210 enthält eine Kern- und Speichersteuergruppe 220 und eine I/O-Steuerzentrale 250, die Informationen (zum Beispiel Daten, Signale, Befehle, etc.) über eine direkte Verwaltungsschnittstelle (DMI) 242 oder eine Verbindungssteuerung 244 austauscht. In 2 ist die DMI 242 eine Chip-zu-Chip-Schnittstelle (auf die sich manchmal als eine Verbindung zwischen einer „Northbridge“ und einer „Southbridge“ bezogen wird). Die Kern- und Speichersteuergruppe 220 enthält einen oder mehrere Prozessoren 222 (z.B. einzelkern oder mehrkern), und eine Speicher-Steuerzentrale 226, die Informationen über einen Vorderseitenbus (FSB) 224 austauschen kann; unter Kenntnisnahme, dass Komponenten der Gruppe 220 in einen Chip integriert sein können, der die herkömmliche „Northbridge“-Typ-Architektur ablöst. Ein oder mehrere Prozessoren 222 umfassen interne arithmetische Einheiten, Register, Cachespeicher, Busse, I/O-Anschlüsse, etc., wie aus dem Stand der Technik wohlbekannt.
  • In 2 koppelt die Speicher-Steuerzentrale 226 mit Speicher 240 (zum Beispiel um Unterstützung für eine Art RAM bereitzustellen, auf den sich als „Systemspeicher“ oder „Speicher“ bezogen wird). Die Speicher-Steuerzentrale 226 enthält weiter eine Niedrigspannungs-Differenzsignal (LVDS)-Schnittstelle 232 für eine Anzeigevorrichtung 292 (zum Beispiel ein CRT, ein Flachbild, ein Berührungsbildschirm, etc.). Ein Block 238 enthält einige Technologien, die durch die LVDS-Schnittstelle 232 unterstützt werden können (zum Beispiel serielles digitales Video, HDMI/DVI, Display Port). Die Speicher-Steuerzentrale 226 enthält auch eine PCI-Express-Schnittstellen (PCI-E) 234, die diskrete Grafik 236 unterstützen kann.
  • In 2 enthält die I/O-Steuerzentrale 250 eine SATA-Schnittstelle 251 (zum Beispiel für HDDs, SDDs, etc., 280), eine PCI-E-Schnittstelle 252 (zum Beispiel für drahtlose Verbindungen 282), eine USB-Schnittstelle 253 (zum Beispiel für Vorrichtungen 284, wie einen Digitalisierer, Tastatur, Mäuse, Kameras, Telefone, Mikrofone, Speicher, andere verbundene Vorrichtungen, etc.), eine Netzwerkschnittstelle 254 (zum Beispiel LAN), eine GPIO-Schnittstelle 255, eine LPC-Schnittstelle 270 (für ASICs 271, ein TPM 272, einen Super-I/O 273, eine Firmware-Zentrale 274, BIOS-Unterstützung 275 sowie verschiedene Arten von Speicher 276, so wie ROM 277, Flash 278 und NVRAM 279), eine Leistungsverwaltungsschnittstelle 261, eine Taktgeneratorschnittstelle 262, eine Audioschnittstelle 263 (zum Beispiel für Lautsprecher 294), eine TCO-Schnittstelle 264, eine Systemverwaltungsbus-Schnittstelle 265 und SPI Flash 266, die BIOS 268 und Bootcode 290 enthalten kann. Die I/O-Steuerzentrale 250 kann Gigabit-Ethernet-Unterstützung enthalten.
  • Das System kann ausgebildet sein, beim Aufstarten Bootcode 290 für das BIOS 268 auszuführen, wie innerhalb des SPI Flash 266 gespeichert, und danach Daten unter der Steuerung von einem oder mehreren Betriebssystemen und Anwendungssoftware (wie z.B. in dem Systemspeicher 240 gespeichert) zu verarbeiten. Ein Betriebssystem kann in einer Vielzahl von Orten gespeichert sein und zum Beispiel auf dieses gemäß Instruktionen des BIOS 268 zugegriffen werden. Wie hierin beschrieben kann eine Vorrichtung weniger oder mehr Merkmale als in dem System von 2 gezeigt enthalten.
  • Informationshandhabungsvorrichtungs-Schaltungen, wie zum Beispiel in 1 oder 2 umrissen, können in Vorrichtungen so wie Tablets, Smartphones, tragbaren Kopfgarnituren, Personalcomputervorrichtungen im Allgemeinen und/oder elektronischen Vorrichtungen verwendet werden, die ausgebildet sind, einen Erweiterte-Realität-Inhalt anzuzeigen und die verschiedene Funktionen in Erwiderung auf ein Empfangen einer Benutzereingabe durchführen können. Zum Beispiel kann die Schaltung wie in 1 umrissen in einer Tablet- oder Smartphone-Ausführungsform implementiert sein, wohingegen die Schaltung wie in 2 umrissen in einer Personalcomputer-Ausführungsform implementiert sein kann.
  • Unter Bezugnahme nun auf 3 kann eine Ausführungsform zumindest eine Charakteristik eines angezeigten Erweiterte-Realität-Inhalts basierend auf einem bestimmten Kontext, der einem Benutzer zugeordnet ist, automatisch anpassen. Bei 301 kann ein Erweiterte-Realität-Inhalt auf einer Anzeige einer ER-fähigen Vorrichtung angezeigt werden. In dem Kontext dieser Anmeldung kann der ER-Inhalt praktisch jede Art von ER-Inhalt sein, der auf einer ER-Vorrichtung angezeigt werden kann (z.B. Applikationsfenster, statische oder dynamische Bilder, etc.). In dem Kontext dieser Anmeldung kann eine ER-fähige Vorrichtung jede Vorrichtung sein, die fähig ist, ER-Inhalt anzuzeigen (z.B. Smartphone, Tablet, tragbare Kopfgarnitur, etc.). Aus Gründen der Einfachheit wird die Mehrheit der Diskussion ER-Inhalt betreffen, der auf einer ER-Kopfgarnitur angezeigt wird. Es sollte jedoch verstanden werden, dass im Allgemeinen jede ER-fähige Vorrichtung verwendet werden kann, um ER-Inhalt anzuzeigen.
  • In einer Ausführungsform können ein oder mehrere Sensoren betriebsbereit mit der ER-Kopfgarnitur gekoppelt sein (z.B. ein Bildsensor, so wie eine Kamera, eine Audioerfassungsvorrichtung, so wie ein Mikrofon, etc.). Der eine oder mehrere Sensoren können Daten sammeln, die einem Benutzer und dessen Umgebung zugeordnet sind und danach diese Daten verwenden, um einen Kontext, der dem Benutzer zugeordnet ist, zu bestimmen. In einer Ausführungsform kann die ER-Kopfgarnitur zusätzliche kontextbezogene Daten von anderen Vorrichtungen empfangen. Zum Beispiel kann eine ER-Kopfgarnitur in Kommunikation mit einer Smartwatch des Benutzers stehen und Daten verwenden, die von der Smartwatch des Benutzers gewonnen werden, um einen Kontext, der einem Benutzer zugeordnet ist, zu bestimmen (z.B. empfangen von Beschleunigungsmesserdaten von der Smartwatch, um eine Geschwindigkeit des Benutzers zu bestimmen, etc.).
  • In Erwiderung auf ein Bestimmen bei 302, dass einem Benutzer keine Kontextparameter zugeordnet sind, kann eine Ausführungsform bei 303 weiterhin den ER-Inhalt mit den gegenwärtigen Anzeigeeinstellungen anzeigen. In Erwiderung auf ein Bestimmen bei 302, dass ein Kontext einem Benutzer zugeordnet ist, kann jedoch eine Ausführungsform bei 304 zumindest eine Charakteristik des ER-Inhalts anpassen.
  • In einer Ausführungsform kann der Kontext praktisch jeder detektierbare Kontext, der einem Benutzer zugeordnet ist, sein (z.B. ein Ort des Benutzers, eine gegenwärtige Geschwindigkeit des Benutzers, andere Individuen in der Nähe des Benutzers, eine Kombination davon, etc.). In einer Ausführungsform kann die zumindest eine Charakteristik, die dem ER-Inhalt zugeordnet ist, praktisch jede anpassbare Charakteristik des angezeigten ER-Inhalt sein (z.B. Größe, Position, Opazität, eine Kombination davon, etc.). In einer Ausführungsform kann die Anpassung des ER-Inhalts automatisch und ohne Benutzereingabe erfolgen. Insbesondere muss ein Benutzer nicht einen expliziten Benutzerbefehl (z.B. Stimmeingabe, Berührungseingabe, Gesteneingabe, etc.) an das System bereitstellen, damit eine Charakteristik des ER-Inhalts angepasst wird.
  • Unten beschrieben sind Beispielausführungsformen Charakteristik-Anpassungen von angezeigtem ER-Inhalt entsprechen. Es sollte verstanden werden, dass diese Beispiele nicht beschränkend sind und die neuen Konzepte in dieser Anmeldung auf andere Situationen und Kontexte anwendbar sind, die nicht explizit hierin beschrieben sind.
  • In einer Ausführungsform kann der Kontext einem gegenwärtigen geografischen Ort des Benutzers zugeordnet sein. Eine Ausführungsform kann in der Lage sein, einen gegenwärtigen geografischen Ort des Benutzers unter Verwendung einer oder mehrerer Ortsbestimmungstechnologien zu bestimmen (z.B. GPS-Verfolgung, Ortstriangulation, andere Ortsbestimmungstechnologien, etc.). In Erwiderung auf ein Bestimmen eines Orts des Benutzers kann eine Ausführungsform zumindest eine Charakteristik von angezeigtem ER-Inhalt automatisch anpassen. Zum Beispiel kann eine Ausführungsform in Erwiderung auf ein Bestimmen, dass ein Benutzer bei der Arbeit ist, die Opazität von angezeigtem ER-Inhalt erhöhen und/oder die Größe des angezeigten ER-Inhalts verringern.
  • In einer Ausführungsform kann der geografische Ort einer Positionsbestimmung des bestimmten Orts des Benutzers in einem Gebäude oder Fahrzeug entsprechen. Zum Beispiel kann eine Ausführungsform in Erwiderung auf ein Bestimmen, dass ein Benutzer in seinem Büro ist, ER-Inhalt in dem Zentrum eines Sichtfelds des Benutzers anzeigen, ER-Inhalt in einem größeren Format anzeigen, ER-Inhalt in einer weniger transparenten Art anzeigen und dergleichen. Wenn eine Ausführungsform bestimmt, das sein Benutzer sein Büro verlassen hat und in einen Besprechungsraum gegangen ist, dann kann eine Ausführungsform die Größe des ER-Inhalts verringern, den ER-Inhalt an einen Rand eines Sichtfelds des Benutzers umpositionieren, die Opazität des ER-Inhalts erhöhen und dergleichen. In einem ähnlichen Beispiel kann eine Ausführungsform bestimmen, ob der Benutzer ein Fahrer oder Beifahrer ein einem Fahrzeug ist. In Erwiderung auf ein Bestimmen, dass eine Position des Benutzers einer fahrenden oder das Fahrzeug bedienenden Position entspricht, kann eine Ausführungsform ER-Inhalt auf der Anzeige minimieren oder davon löschen. Wenn jedoch eine Ausführungsform bestimmt, dass ein Benutzer ein Beifahrer in dem Fahrzeug ist, dann kann eine Ausführungsform den ER-Inhalt mit den bevorzugten oder bestehenden Ansichtseinstellungen des Benutzers anzeigen. Die Position des Benutzers in einem Gebäude oder Fahrzeug kann unter Verwendung von einer oder mehreren herkömmlichen Positionsbestimmungstechnologien bestimmt werden, die das Empfangen und Verarbeiten von Daten von anderen Sensoren und/oder Vorrichtungen beinhalten kann.
  • In einer Ausführungsform kann der Kontext einer Geschwindigkeit des Benutzers zugeordnet sein. Eine Ausführungsform kann in der Lage sein, eine Geschwindigkeit des Benutzers unter Verwendung einer oder mehrerer Geschwindigkeitsbestimmungstechnologien zu bestimmen (z.B. unter Verwendung von GPS Daten, Beschleunigungsmesserdaten, anderen Geschwindigkeitsbestimmungstechnologien, etc.). In einer Ausführungsform kann, in Erwiderung auf ein Bestimmen, dass die Geschwindigkeit des Benutzers größer ist als ein vorbestimmter Schwellenwert ist (z.B. der von einem Hersteller gesetzt sein kann und/oder von einem Benutzer gesetzt und angepasst werden kann, etc.), eine Ausführungsform zumindest eine Charakteristik von angezeigtem ER-Inhalt anpassen. Zum Beispiel kann eine Ausführungsform die Opazität von angezeigtem ER-Inhalt in Erwiderung auf ein Bestimmen, dass ein Benutzer begonnen hat zu gehen, nachdem er vorher den ER-Inhalt in einer stationären Position konsumiert hat, erhöhen.
  • In einer Ausführungsform kann es mehrere vorbestimmte Schwellenwerte geben, wobei jeder von den vorbestimmten Schwellenwerten einer unterschiedlichen Geschwindigkeit entspricht. In einer Ausführungsform kann jede von den Geschwindigkeiten eine bestimmte Anpassungseinstellung aufweisen, die dieser zugeordnet ist. Zum Beispiel kann, in Erwiderung auf ein Bestimmen, dass der gehende Benutzer aus dem vorherigen Absatz begonnen hat zu rennen, eine Ausführungsform den ER-Inhalt an eine Randkante der Sicht des Benutzers bewegen, sodass sein zentrales Sichtfeld klar ist. In einem anderen Beispiel kann, in Erwiderung auf ein Bestimmen, dass ein Benutzer begonnen hat, sich mit Geschwindigkeiten zu bewegen, die üblicherweise sich bewegenden Fahrzeugen zugeordnet sind, eine Ausführungsform automatisch den ER-Inhalt minimieren oder von der Anzeige davon löschen. Eine Ausführungsform kann die vorgenannten Positionsbestimmungstechnologien verwenden, um sicherzustellen, dass der ER-Inhalt nicht automatisch gelöscht wird, wenn ein Benutzer ein Beifahrer in einem sich bewegenden Fahrzeug ist.
  • In einer Ausführungsform kann der Kontext der Identität von einem anderen Individuum in der Nähe des Benutzers zugeordnet sein. In einer Ausführungsform kann die Identität des anderen Individuums unter Verwendung einer oder mehrere Identifikationstechnologien bestimmend bestimmt werden. Zum Beispiel kann eine Ausführungsform Benutzeridentifikationsdaten von einer Vorrichtung, die einem Individuum in der Nähe zugeordnet sind, empfangen (z.B. ein Laptop des Individuums, ein Smartphone des Individuums, eine Smartwatch oder Fitnessarmband des Individuums, etc.). Als ein anderes Beispiel kann eine Ausführungsform ein Bild von einem oder mehreren Individuen in der Nähe erfassen und das erfasste Bild mit einer zugreifbaren Datenbank, die zumindest ein gespeichertes Bild eines identifizierten Individuums enthält, vergleichen. In noch einem anderen Beispiel kann eine Ausführungsform Stimmdaten detektieren (z.B. unter Verwendung eines oder mehrerer Mikrofone, etc.) die einem anderen Individuum zugeordnet sind (z.B., wenn ein anderes Individuum spricht, etc.). Danach kann eine Ausführungsform die Identität des anderen Individuums durch Vergleichen des detektierten Stimmabdrucks mit einer zugreifbaren Datenbank, die zumindest einen gespeicherten Stimmabdruck eines identifizierten Individuums enthält, bestimmen.
  • In Erwiderung auf ein Bestimmen der Identität eines Individuums in der Nähe kann eine Ausführungsform zumindest eine Charakteristik von angezeigtem ER-Inhalt anpassen. Zum Beispiel kann, in Erwiderung auf ein Bestimmen, dass der Vorgesetzte des Benutzers in der Nähe ist, eine Ausführungsform die Größe von angezeigtem ER-Inhalt verkleinern, die Opazität des ER-Inhalts vergrößern, den ER-Inhalt neupositionieren, sodass ein zentrales Sichtfeld des Benutzers klar ist, eine Kombination davon und dergleichen. In einer Ausführungsform kann eine Ausführungsform eine Charakteristik des ER-Inhalts in Erwiderung auf ein einfaches Identifizieren, dass ein anderes Individuum in der Nähe des Benutzers ist, anpassen, unabhängig von der Identität des anderen Individuums.
  • In einer Ausführungsform kann der ER-Inhalt automatisch auf eine dem Kontext angemessene Einstellung angepasst werden in Erwiderung auf ein Empfangen eines ersten Hinweises, ER-Inhalt anzuzeigen. Zum Beispiel kann beim Initialisieren der ER-Kopfgarnitur oder in Erwiderung auf einen Benutzerbefehl, ER-Inhalt anzuzeigen, eine Ausführungsform einen Kontext des Benutzers bestimmen und danach den ursprünglichen ER-Inhalt (d.h. den ersten ER-Inhalt, der beim Initialisieren der ER-Kopfgarnitur oder in Erwiderung auf einen Benutzerbefehl angezeigt wird) mit den Charakteristiken, die dem Kontext zugeordnet sind, anzeigen.
  • In einer Ausführungsform kann die Art, wie ER-Inhalt angepasst wird, einem vorbestimmten Regelwerk folgen, das in einer zugreifbaren Speicherdatenbank gespeichert sein kann (z.B. Cloudspeicher, entfernter Speicher, lokaler Speicher, Netzwerkspeicher, etc.). Das vorbestimmte Regelwerk kann die Anpassungen, die auf den ER-Inhalt in Erwiderung auf eine bestimmte kontextuale Bestimmung angewendet werden, verwalten. In einer Ausführungsform kann das vorbestimmte Regelwerk ursprünglich von dem Hersteller gesetzt und später von einem Benutzer angepasst werden.
  • Die verschiedenen hierin beschriebenen Ausführungsformen repräsentieren deshalb eine technische Verbesserung gegenüber herkömmlichen Anpassungstechnologien für ER-Inhalt. Unter Verwendung der hierin beschriebenen Technologien kann eine Ausführungsform ER-Inhalt auf einer ER-fähigen Vorrichtung anzeigen. Eine Ausführungsform kann einen Kontext, der einem Benutzer zugeordnet ist, bestimmen (z.B. einen Ort des Benutzers, eine Geschwindigkeit des Benutzers, eine Identität von anderen Benutzern in der Nähe des Benutzers, etc.) und danach, basierend auf dem bestimmten Kontext, zumindest eine Charakteristik des ER-Inhalts anpassen (z.B. Position des ER-Inhalts, Opazität des ER-Inhalt, Größe des ER-Inhalt, etc.). Solche Technologien können automatisch, ohne zusätzliche Benutzereingabe, ER-Inhalt mit dem Kontext angemessenen Einstellungen anzeigen.
  • Wie von einem Fachmann verstanden werden wird, können verschiedene Aspekte in einem System, Verfahren oder Vorrichtungs-Programmprodukt ausgeführt sein. Dementsprechend können Aspekte die Form einer vollständigen Hardware-Ausführungsform oder einer Ausführungsform, die Software enthält, annehmen, auf die alle im Allgemeinen hierin als „Schaltkreis“, „Modul“ oder „System“ Bezug genommen werden kann. Weiterhin können Aspekte die Form eines Vorrichtungs-Programmprodukts annehmen, das in einer oder mehreren vorrichtungslesbaren Medien ausgeführt sein kann, die vorrichtungslesbaren Programmcode darin ausgeführt haben.
  • Es sollte zur Kenntnis genommen werden, dass die verschiedenen hierin beschriebenen Funktionen unter Verwendung von Instruktionen, die auf einem vorrichtungslesbaren Speichermedium, so wie einer signallosen Speichervorrichtung, gespeichert sein können, die von einem Prozessor ausgeführt werden. Eine Speichervorrichtung kann zum Beispiel ein System, Gerät oder Vorrichtung sein (z.B. ein elektronische, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, - Gerät oder -Vorrichtung) oder jede passende Kombination der vorgenannten. Spezifischere Beispiele einer Speichervorrichtung/-medium enthalten die Folgenden: eine tragbare Computerdiskette, eine Festplatte, einen wahlfreien Zugriffsspeicher (RAM), einen Nur-Lese-Speicher (ROM), einen elektrisch löschbaren Nur-Lese-Speicher (EEPROM oder Flash-Speicher), eine optische Faser, ein tragbarer Kompaktdisk-Nur-Lese-Speicher (CD-ROM), eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder jede passende Kombination der Vorgenannten. In dem Kontext dieses Dokuments ist eine Speichervorrichtung kein Signal und enthält „nicht transient“ alle Medien ausgenommen Signalmedien.
  • Programcode, der auf einem Speichermedium ausgeführt ist, kann unter Verwendung eines geeigneten Mediums übertragen werden, inklusive drahtlos, drahtgebunden, optisches Faserkabel, HF, etc., oder jede andere passende Kombination der Vorgenannten, ist aber nicht darauf beschränkt.
  • Programcode zum Durchführen von Handlungen kann in jeder Kombination von einer oder mehrerer Programmiersprachen geschrieben sein. Der Programmcode kann vollständig auf einer einzelnen Vorrichtung, teilweise auf einer einzelnen Vorrichtung, wie ein eigenständiges Softwarepaket, teilweise auf einer einzelnen Vorrichtung und teilweise auf einer anderen Vorrichtung oder vollständig auf der anderen Vorrichtung ausgeführt sein. In einigen Fällen können die Vorrichtungen durch jede Art von Verbindung oder Netzwerk verbunden sein, inklusive eines lokalen Netzwerk (LAN) oder einem Weitverkehrsnetz (WAN), oder die Verbindung kann durch andere Vorrichtungen erzeugt werden (zum Beispiel durch das Internet unter Verwendung eines Internetdienstanbieters), durch drahtlose Verbindungen, z.B. Nahfeldkommunikation, oder durch eine drahtgebundene Verbindung, so wie über eine USB-Verbindung.
  • Beispiel-Ausführungsformen sind hierin mit Bezug auf die Figuren beschrieben, die Beispiel-Verfahren, -Vorrichtungen und - Programmprodukte gemäß verschiedenen Beispiel-Ausführungsformen illustrieren. Es wird verstanden werden, dass die Handlungen und Funktionalität zumindest teilweise durch Programminstruktionen implementiert sein können. Diese Programminstruktionen können an einen Prozessor einer Vorrichtung, einer Sonderzweck-Informationshandhabungsvorrichtung oder anderen programmierbaren Datenverarbeitungsvorrichtungen bereitgestellt werden, um eine Maschine herzustellen, sodass die Instruktionen, die durch einen Prozessor ausgeführt werden, die Funktionen/Handlungen wie spezifiziert implementieren.
  • Es ist lohnenswert zu verstehen, dass, während spezifische Blöcke in den Figuren verwendet wurden und eine bestimmte Reihenfolge der Blöcke illustriert wurde, diese nichtbeschränkende Beispiele sind. In einem bestimmten Kontext können zwei oder mehr Blöcke kombiniert werden, ein Block kann in zwei oder mehr Blöcke aufgeteilt werden oder bestimmte Blöcke können neu angeordnet oder reorganisiert werden, wie es passt, da die explizit illustrierten Beispiele nur für beschreibende Zwecke verwendet wurden und nicht als beschränkend ausgelegt werden sollen.
  • Wie hierin verwendet kann der Singular „ein“ oder „eine“ ausgelegt werden als dass er den Plural „einer oder mehrere“ enthält, soweit nicht deutlich anders angezeigt.
  • Diese Offenbarung wurde für Zwecke der Illustration und Beschreibung präsentiert, es ist jedoch nicht beabsichtigt, erschöpfend oder beschränkend zu sein. Viele Modifikationen und Variationen werden dem Fachmann offenbar sein. Die Beispiel-Ausführungsformen wurden ausgewählt und beschrieben, um Prinzipien und praktische Anwendung zu erläutern und anderen Fachmännern zu ermöglichen, die Offenbarung für verschiedene Ausführungsformen mit verschiedenen Modifikationen verstehen zu können, die für die jeweilige Verwendung geeignet sind.
  • Deshalb muss, obwohl illustrative Beispiel-Ausführungsformen hierin mit Bezug auf die beigefügten Figuren beschrieben worden sind, verstanden werden, dass diese Beschreibung nicht beschränkend ist und dass verschiedene andere Veränderungen und Modifikationen von dem Fachmann dadurch betroffen sein können, ohne von dem Umfang oder dem Geist dieser Offenbarung abzuweichen.

Claims (21)

  1. Was beansprucht wird, ist:
  2. Verfahren, umfassend: - Anzeigen eines Erweiterte-Realität-Inhalts unter Verwendung eines Prozessors; - Bestimmen eines Kontexts, der einem Benutzer zugeordnet ist unter Verwendung eines Prozessors; und - Anpassen zumindest einer Charakteristik des Erweiterte-Realität-Inhalts basierend auf dem Kontext und ohne zusätzliche Benutzereingabe.
  3. Verfahren nach Anspruch 1, wobei der Kontext einem Ort des Benutzers zugeordnet ist.
  4. Verfahren nach Anspruch 1, wobei der Kontext einer Geschwindigkeit des Benutzers zugeordnet ist.
  5. Verfahren nach Anspruch 1, wobei der Kontext zumindest einem anderen Individuum in der Nähe des Benutzers zugeordnet ist.
  6. Verfahren nach Anspruch 1, wobei das Bestimmen des Kontexts ein Zugreifen auf Daten umfasst, die von einer anderen Vorrichtung gewonnen werden.
  7. Verfahren nach Anspruch 1, wobei das Bestimmen des Kontexts ein Zugreifen auf Daten umfasst, die von zumindest einem Sensor gewonnen werden.
  8. Verfahren nach Anspruch 1, wobei die zumindest eine Charakteristik einer Positionscharakteristik entspricht.
  9. Verfahren nach Anspruch 1, wobei die zumindest eine Charakteristik einer Opazitätscharakteristik entspricht.
  10. Verfahren nach Anspruch 1, wobei die zumindest eine Charakteristik einer Größencharakteristik entspricht.
  11. Verfahren nach Anspruch 1, wobei das Anpassen ein Anpassen der zumindest einen Charakteristik umfasst nachdem der Erweiterte-Realität-Inhalt angezeigt wird.
  12. Informationshandhabungsvorrichtung, umfassend: - einen Prozessor; - eine Anzeige; - eine Speichervorrichtung, die Instruktionen speichert, die von dem Prozessor ausführbar sind zum: - Anzeigen eines Erweiterte-Realität-Inhalts; Bestimmen eines Kontexts, der einem Benutzer zugeordnet ist; und - Anpassen zumindest einer Charakteristik des Erweiterte-Realität-Inhalts auf der Anzeige basierend auf dem Kontext und ohne zusätzliche Benutzereingabe.
  13. Informationshandhabungsvorrichtung nach Anspruch 11, wobei der Kontext einem Ort des Benutzers zugeordnet ist.
  14. Informationshandhabungsvorrichtung nach Anspruch 11, wobei der Kontext einer Geschwindigkeit des Benutzers zugeordnet ist.
  15. Informationshandhabungsvorrichtung nach Anspruch 11, wobei die Instruktionen, die von dem Prozessor ausführbar sind zum Bestimmen Instruktionen umfassen, die von dem Prozessor ausführbar sind zum Zugreifen auf Daten, die von einer anderen Vorrichtung gewonnen werden.
  16. Informationshandhabungsvorrichtung nach Anspruch 11, wobei die Instruktionen, die von dem Prozessor ausführbar sind zum Bestimmen Instruktionen umfassen, die von dem Prozessor ausführbar sind zum Zugreifen auf Daten, die von zumindest einem Sensor gewonnen werden.
  17. Informationshandhabungsvorrichtung nach Anspruch 11, wobei die zumindest eine Charakteristik einer Positionscharakteristik entspricht.
  18. Informationshandhabungsvorrichtung nach Anspruch 11, wobei die zumindest eine Charakteristik einer Opazitätscharakteristik entspricht.
  19. Informationshandhabungsvorrichtung nach Anspruch 11, wobei die zumindest eine Charakteristik einer Größencharakteristik entspricht.
  20. Informationshandhabungsvorrichtung nach Anspruch 11, wobei die Instruktionen, die von dem Prozessor ausführbar sind zum Anpassen Instruktionen umfassen, die von dem Prozessor ausführbar sind zum Anpassen der zumindest einen Charakteristik nachdem der Erweiterte-Realität-Inhalt angezeigt wird.
  21. Produkt, umfassend: - eine Speichervorrichtung, die Code speichert, wobei der Code von einem Prozessor ausführbar ist und umfasst: - Code der einen Erweiterte-Realität-Inhalt anzeigt; - Code der einen Kontext bestimmt, der einem Benutzer zugeordnet ist; und - Code der zumindest eine Charakteristik des Erweiterte-Realität-Inhalts basierend auf dem Kontext und ohne zusätzliche Benutzereingabe anpasst.
DE102019102903.1A 2018-02-09 2019-02-06 Anpassung einer Charakteristik eines Erweiterte-Realität-Inhalts Pending DE102019102903A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/892,904 2018-02-09
US15/892,904 US10818086B2 (en) 2018-02-09 2018-02-09 Augmented reality content characteristic adjustment

Publications (1)

Publication Number Publication Date
DE102019102903A1 true DE102019102903A1 (de) 2019-08-14

Family

ID=65996895

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019102903.1A Pending DE102019102903A1 (de) 2018-02-09 2019-02-06 Anpassung einer Charakteristik eines Erweiterte-Realität-Inhalts

Country Status (4)

Country Link
US (1) US10818086B2 (de)
CN (1) CN110134228B (de)
DE (1) DE102019102903A1 (de)
GB (1) GB2572678B (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10743095B1 (en) * 2019-03-21 2020-08-11 Apple Inc. Contextual audio system
US11621863B1 (en) * 2021-11-02 2023-04-04 Lenovo (Singapore) Pte. Ltd Audio protection in virtual meeting

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020044152A1 (en) 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US8947322B1 (en) 2012-03-19 2015-02-03 Google Inc. Context detection and context-based user-interface population
US9219901B2 (en) 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display
JP5935640B2 (ja) * 2012-10-01 2016-06-15 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US10685487B2 (en) * 2013-03-06 2020-06-16 Qualcomm Incorporated Disabling augmented reality (AR) devices at speed
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
US9898844B2 (en) * 2013-12-31 2018-02-20 Daqri, Llc Augmented reality content adapted to changes in real world space geometry
US9865089B2 (en) * 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
WO2016017997A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable glasses and method of providing content using the same
US9811911B2 (en) 2014-12-29 2017-11-07 Nbcuniversal Media, Llc Apparatus and method for generating virtual reality content based on non-virtual reality content
US9865091B2 (en) * 2015-09-02 2018-01-09 Microsoft Technology Licensing, Llc Localizing devices in augmented reality environment
DE102015014119A1 (de) * 2015-11-04 2017-05-18 Thomas Tennagels Adaptives Visualisierungssystem und Visualisierungsverfahren
CN106127171A (zh) * 2016-06-28 2016-11-16 广东欧珀移动通信有限公司 一种增强现实内容的显示方法、装置及终端
US10140957B1 (en) * 2016-06-28 2018-11-27 Amazon Technologies, Inc. Controlling content output features to optimize content consumption
US9858637B1 (en) * 2016-07-29 2018-01-02 Qualcomm Incorporated Systems and methods for reducing motion-to-photon latency and memory bandwidth in a virtual reality system

Also Published As

Publication number Publication date
GB2572678B (en) 2021-06-16
US10818086B2 (en) 2020-10-27
CN110134228B (zh) 2022-11-04
GB2572678A (en) 2019-10-09
GB201901672D0 (en) 2019-03-27
US20190251746A1 (en) 2019-08-15
CN110134228A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
DE102014106579A1 (de) Besondere Gesten für Kamerasteuerungs- und Bildverarbeitungsverfahren
DE102016122716A1 (de) Arbeitsbereichsübergänge in einer erweiterten Realität, basierend auf einem kontextuellen Umfeld
DE202015009846U1 (de) Einrichtung zum Verarbeiten biometrischer Informationen in einer elektronischen Vorrichtung
DE102014117344A1 (de) Gerät und Verfahren zum Empfangen einer Eingabe und Darstellen als Antwort eine Ausgabe auf einem von dem ersten Gerät unterschiedlichen zweiten Gerät
DE102015100900A1 (de) Einstellen einer Spracherkennung unter Verwendung einer Kontextinformation
DE102014117504A1 (de) Verwenden von Kontext zum Interpretieren von natürlichen Spracherkennungsbefehlen
DE102019131372A1 (de) Ausschluss von erweiterte-realitäts-inhalt
DE102015100470A1 (de) Interaktive Benutzergesteneingaben
DE102019104950A1 (de) Inhalt übertragen
DE102018114533A1 (de) Systeme und Verfahren zur Identifikation von Antwortanfragen an einer Peripherievorrichtung
CN109144250B (zh) 一种位置调节的方法、装置、设备及存储介质
DE102017120697A1 (de) Eye-Tracking Auswahlvalidierung
DE102014117343A1 (de) Erfassen einer Pause in einer akustischen Eingabe in ein Gerät
DE102019102903A1 (de) Anpassung einer Charakteristik eines Erweiterte-Realität-Inhalts
US20200312268A1 (en) Systems and methods to change setting related to presentation of content based on user squinting and/or user blink rate
DE102017109503A1 (de) Audiogeräteanordnungen in konvertierbaren elektronischen Geräten
US20220286641A1 (en) Background image adjustment in virtual meeting
US10296279B2 (en) Displaying images across multiple displays
DE102014118225A1 (de) Tischplatten-Gesten zum Imitieren einer Maussteuerung
DE102016119948A1 (de) Gestensteuerung mit Hilfe von Tiefenangaben
DE112019006940T5 (de) Benutzerauthentifizerung durch posenbasierte Gesichtserkennung
DE102018203989A1 (de) Verfahren und vorrichtung zur blob-winkel-ausrichtungserkennung in einem touch-gerät
US10902265B2 (en) Imaging effect based on object depth information
US20180181289A1 (en) Sizing applications based on display parameters
DE102018105397A1 (de) Lichtpegelanpassung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE