DE112017005001T5 - Mit erweiterter realtität gerenderter strukturierter inhalt - Google Patents

Mit erweiterter realtität gerenderter strukturierter inhalt Download PDF

Info

Publication number
DE112017005001T5
DE112017005001T5 DE112017005001.4T DE112017005001T DE112017005001T5 DE 112017005001 T5 DE112017005001 T5 DE 112017005001T5 DE 112017005001 T DE112017005001 T DE 112017005001T DE 112017005001 T5 DE112017005001 T5 DE 112017005001T5
Authority
DE
Germany
Prior art keywords
information
user
layer
rendered
readability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017005001.4T
Other languages
English (en)
Inventor
Alexis Menard
Bryan G. Benhart
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE112017005001T5 publication Critical patent/DE112017005001T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Systeme, Vorrichtungen und Verfahren können eine technologiebasierte Art zum Anpassen von Nicht-Augmented-Reality-Inhalt von einer Inhaltsplattform zur Anzeige in einer AR-Umgebung bereitstellen. Genauer gesagt, können Systeme, Vorrichtungen und Verfahren eine Art des Renderings einer AR-Umgebung, das irgendeinen Abschnitt des angepassten Nicht-AR-Inhalts aufweist, basierend auf einem oder mehreren physikalischen Kontexten oder Vorrichtungskontexten bereitstellen. Systeme, Vorrichtungen und Verfahren können für das Ändern von einem oder mehreren Lesbarkeitsparametern der in der AR-Umgebung gerenderten Informationen basierend auf einem oder mehreren physikalischen Kontexten oder Vorrichtungskontexten sorgen, um die Lesbarkeit von an AR angepasstem Nicht-AR-Inhalt zu verbessern.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht die Priorität der nicht vorläufigen US-Patentanmeldung 15/282,443 , die am 30. September 2016 eingereicht wurde.
  • TECHNISCHES GEBIET
  • Ausführungsformen betreffen allgemein die Darstellung von Informationen in einer Umgebung mit erweiterter Realität (engl. Augmented Reality - AR). Insbesondere betreffen Ausführungsformen eine Art der Anpassung/des Renderings von Nicht-AR-Inhalt in AR durch Einstellen/Ändern von einem oder mehreren Lesbarkeitsparametern des Nicht-AR-Inhalts basierend auf einem oder mehreren physikalischen Kontexten oder Vorrichtungskontexten.
  • ALLGEMEINER STAND DER TECHNIK
  • Beliebte AR-Vorrichtungen (z. B. MICROSOFT HOLOLENS oder GOOGLE GLASS) wenden eine durchsichtige oder „Headup“-Anzeige an, um Informationen mit einer grafischen Benutzeroberfläche (engl. Graphical User Interface - GUI) visuell darzustellen, um Inhalt digital direkt vor einen Benutzer oder auf einer physikalischen Fläche, wie beispielsweise einem Tisch oder einer Wand, platziert zu projizieren. AR-Inhalt verwendet häufig AR-spezifische Abwandlungen und ist häufig auf universelle Erscheinungsbilder oder solche mit fester Form begrenzt. Zum Beispiel kann ein AR-Bildbetrachter Fotos undurchsichtig und auf einer transparenten Schicht einer durchsichtigen oder „Headup“-Anzeige halten. Gegenwärtige AR-Vorrichtungen behalten das Erscheinungsbild von Nicht-AR-Inhalt (z. B. undurchsichtige Fotos und Text, wie beispielsweise Inhalt einer Website oder mobilen Web-Anwendung) unabhängig von der Umgebung bei, derart dass der Nicht-AR-Inhalt das Sichtfeld des Benutzers beeinträchtigt/versperrt (z. B. wenn der Benutzer versucht, sich in einer Umgebung umher zu bewegen). Problematische Situationen entstehen, wenn AR-Vorrichtungen versuchen, Nicht-AR-Inhalt von einer Inhaltsplattform zu rendern, wie beispielsweise einem Webbrowser, die für die Anzeige auf einer Desktop- oder mobilen Rechenvorrichtung gestaltet ist, die Nicht-AR-Inhalt (z. B. Video, Text, Bilder) mit Hintergrund/Fläche (z. B. einem undurchsichtigen Weiß) rendert.
  • Figurenliste
  • Die verschiedenen Vorteile der Ausführungsformen sind für den Fachmann aus der Lektüre der folgenden Beschreibung und beigefügten Ansprüche und unter Bezugnahme auf die folgenden Zeichnungen ersichtlich; es zeigen:
    • 1 eine Veranschaulichung eines Beispiels für eine Ausgestaltung eines Systems zum Rendering von strukturiertem Inhalt (Structured Content Renderer - SCR) gemäß einer Ausführungsform;
    • 2 ein Blockdiagramm eines Beispiels eines AR-SCR-Systems gemäß einer Ausführungsform;
    • 3 ein Ablaufdiagramm eines Beispiels eines Verfahrens zum Erzeugen eines Schichtverbunds gemäß einer Ausführungsform;
    • 4A ein Blockdiagramm eines Beispiels für Nicht-AR-Inhalt gemäß einer Ausführungsform;
    • 4B ein Blockdiagramm eines Beispiels für Nicht-AR-Inhalt, der an eine AR-Umgebung angepasst wurde, gemäß einer Ausführungsform;
    • 5A und 5B Blockdiagramme von Beispielen für Renderings von Nicht-AR-Inhalt in einer AR-Umgebung gemäß der Beleuchtung in einer physikalischen Umgebung gemäß einer oder mehreren Ausführungsformen;
    • 6 ein Blockdiagramm eines Beispiels eines Prozessors gemäß einer Ausführungsform; und
    • 7 ein Blockdiagramm eines Beispiels für ein Rechensystem gemäß einer Ausführungsform.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • 1 ist eine Veranschaulichung eines Beispiels für eine Systemausgestaltung 100 eines Structured Content Renderers (SCR) für erweiterte Realität (Augmented Reality - AR). Die AR-SCR-Systemausgestaltung 100 weist ein AR-SCR-System 102 auf, das Inhalt (z. B. Informationen, die AR-Inhalt und/oder Nicht-AR-Inhalt 104 aufweisen) von einer oder mehreren Inhaltsplattformen 106 und Sensormessungen von einem oder mehreren Sensoren 108 aufweisen, empfangen und/oder abrufen kann.
  • Das AR-SCR-System 102 kann mit einer oder mehreren AR-Vorrichtungen 110 kommunizieren, die durch einen oder mehrere Benutzer gehalten, getragen und/oder betätigt werden. Ein Benutzer, der eine AR-Vorrichtung 110 (z. B. ein Visier oder einen transparentes Tablet) hält, trägt und/oder hält, kann schnell in einer Website browsen, die in dem Gesichtsfeld des Benutzers gerendert wird und in irgendeinem konfigurierbaren Abstand von dem Benutzer positioniert ist, während die Sensoren 108 einen oder mehrere Umgebungsfaktoren (z. B. physikalische Bedingungen/Tätigkeiten) aufzeichnen. Die Umgebungsfaktoren können Bewegungen von einem oder mehreren Benutzern oder Objekten aufweisen, zum Beispiel von einem Benutzer, der eine AR-Vorrichtung (z. B. Visier) trägt, während er eine Drohne (z. B. an Land, in der Luft, im Wasser) betätigt, die durch einen oder mehrere Sensoren (z. B. an/in der AR-Vorrichtung, Drohne oder irgendeinem/irgendeiner anderen Ort oder Vorrichtung) aufgezeichnet werden. Um zu verhindern, dass der Inhalt die Sichtbarkeit der umliegenden Umgebung für den Benutzer versperrt, können Lesbarkeitsparameter (z. B. Undurchsichtigkeit/Durchsichtigkeit des Inhalts) basierend auf einem oder mehreren Umgebungsfaktoren (z. B. Bewegung, Geschwindigkeit, Licht, Geräusche, Ort, Ausrichtung usw.) angepasst werden.
  • Zum Beispiel kann das AR-SCR-System 102 einen oder mehrere Lesbarkeitsparameter auf unterschiedliche Art und Weise basierend auf der Geschwindigkeitsrate, mit der der Benutzer eine Tätigkeit (z. B. Gehen, Laufen) durchführt, oder einer durch den Benutzer betätigten Drohne, die sich in einer physikalischen Umgebung bewegt, ändern. In einem anderen Beispiel kann das AR-SCR-System 102 den Nicht-AR-Inhalt anpassen, um das Rendering von Browser-Pop-ups in dem Schichtverbund für Geschwindigkeitsraten von einem oder mehreren Benutzern und/oder Objekten über oder unter einem Geschwindigkeitsraten-Schwellenwert oder -Wertbereich zu sperren, um die Lesbarkeit zu verbessern. Benutzerbedienelemente können es dem Benutzer erlauben, den Wert von einem oder mehreren Lesbarkeitsparametern, die durch das AR-SCR-System 102 geändert werden, außer Kraft zu setzen. Das AR-SCR-System 102 kann die Informationen, die in dem Schichtverbund auf einer Granularitätsebene (z. B. auf Pixel- oder Halbpixelbasis) gerendert werden, basierend auf einem oder mehreren Lesbarkeitsparametern ändern, was das Ändern des Erscheinungsbildes des inneren Inhalts zusätzlich zu der Form und/oder Größe des Inhalts aufweist.
  • Dritte 112 können ein oder mehrere AR-Modelle, Bilderkennungsmodelle, Szenarienheuristiken und/oder Inhalt (z. B. AR-Inhalt und Nicht-AR-Inhalt) basierend auf einem oder mehreren von einem Benutzerprofil oder Umgebungsfaktoren bereitstellen, die durch die Sensoren aufgezeichnet werden, was einen Ort eines Benutzers und eine Tätigkeit eines Benutzers aufweist. Das AR-SCR-System 102 kann mit verschiedenen Komponenten der AR-SCR-Systemausgestaltung 100 über ein Netzwerk 114 (z. B. das Internet) kommunizieren.
  • Das AR-SCR-System 102 kann es einer Inhaltsplattform 106, wie beispielsweise einem Webbrowser, ermöglichen, Nicht-AR-Inhalt 104 an AR anzupassen. Das AR-SCR-System 102 kann das Erscheinungsbild des Inhalts 118 des gerenderten (z. B. projizierten) Schichtverbunds 116 und Benutzerbedienelemente basierend auf der physikalischen Umgebung und/oder dem Umgebungsfaktor (z. B. Textur und Farbe von und Abstand zu Objekten und Flächen, Umgebungslicht), die durch die Sensoren 108 aufgezeichnet werden, kontinuierlich ändern.
  • Wenn zum Beispiel in einer Ausführungsform ein Benutzer einen schlecht beleuchteten Raum betritt oder wenn Informationen auf einer Fläche mit dunkler Farbe gerendert werden, kann der Layout-Controller einen oder mehrere Lesbarkeitsparameter, die den Layoutpfad, Stil, Schriftgrad, die Farbe, Form, Gestalt oder Undurchsichtigkeit der in dem Schichtverbund gerenderten Informationen aufweisen, ändern, um die Lesbarkeit der Informationen zu verbessern. Das AR-SCR-System 102 kann eine oder mehrere Permutationen von Lesbarkeitsparametereinstellungen basierend auf einem oder mehreren von den Umgebungsfaktoren, Benutzerprofilen oder Lesbarkeitsschwellenwerten erzeugen und bewerten. Das AR-SCR-System 102 kann Lesbarkeitsparameter und/oder die Lesbarkeitsschwellenwerte basierend auf einem oder mehreren von Rückmeldungen von Benutzern (z. B. Anpassungen an Benutzerbedienelementen), dem Profil von Benutzern oder Sensortests trainieren und/oder einstellen, die durch das AR-SCR-System 102 und/oder ein/e andere/s Komponente oder Teilsystem des AR-SCR-Systems 102 durchgeführt werden.
  • 2 ist ein Blockdiagramm eines Beispiels eines AR-SCR-Systems 200 gemäß einer Ausführungsform. Das AR-SCR-System 300, das das bereits erörterte System 102 (1) ohne Weiteres ersetzen kann, kann einen Prozessor 202, eine Kommunikationsschnittstelle 204 und Speicher 206 aufweisen, der an den Prozessor gekoppelt ist. Der Prozessor 202 führt ein Betriebssystem (OS) 208 aus. Der Speicher 206 kann außerhalb des Prozessors 202 (z. B. externer Speicher) sein und/oder kann durch zum Beispiel einen Speicherbus an den Prozessor 202 gekoppelt sein. Darüber hinaus kann der Speicher 206 als Hauptspeicher ausgeführt sein. Der Speicher 206 kann zum Beispiel flüchtigen Speicher, nichtflüchtigen Speicher und so weiter oder Kombinationen davon aufweisen. Zum Beispiel kann der Speicher 206 dynamischen Speicher mit wahlfreiem Zugriff (Dynamic Random Access Memory - DRAM), der als ein oder mehrere Speichermodule ausgestaltet ist, wie zum Beispiel Dual Inline Memory Module (DIMMs), Small Outline DIMMs (SODIMMs) usw., Nur-Lese-Speicher (Read Only Memory - ROM), (z. B. Programmable Read-Only Memory (PROM), Erasable PROM (EPROM), Electrically EPROM (EEPROM) usw.), Phase Change Memory (PCM) und so weiter oder Kombinationen davon aufweisen. Der Speicher 206 kann ein Array von Speicherzellen aufweisen, die in Zeilen und Spalten angeordnet sind, die in unabhängig adressierbare Speicherplätze partitioniert sind. Der Prozessor 202 und/oder das Betriebssystem 208 können einen Sekundärspeicher 210 mit dem Speicher 206 verwenden, um die Leistung, Kapazität und Flexibilität des AR-SCR-Systems 200 zu verbessern.
  • Das AR-SCR-System 200 kann Kerne 212a, 212b aufweisen, die einen oder mehrere Befehle, wie beispielsweise einen Lesebefehl, einen Schreibbefehl, einen Löschbefehl, einen Bewegungsbefehl, einen arithmetischen Befehl, einen Steuerbefehl und so weiter oder Kombinationen davon ausführen können. Die Kerne 212a, 212b können zum Beispiel einen oder mehrere Befehle zum Bewegen von Daten (z. B. Programmdaten, Operationscode, Operanden usw.) zwischen einem Cache 214 oder einem Register (nicht gezeigt) und dem Speicher 206 und/oder dem Sekundärspeicher 210, um die Daten von dem Speicher 206 zu lesen, um die Daten in den Speicher 206 zu schreiben, um eine arithmetische Operation unter Verwendung der Daten (z. B. Addieren, Subtrahieren, bitweise Operation, Vergleichen usw.) durchzuführen, um eine Steueroperation, die mit den Daten verbunden ist (z. B. Sprung usw.), durchzuführen und so weiter oder Kombinationen davon ausführen. Die Befehle können irgendeine Codedarstellung, wie zum Beispiel Binärcode, Oktalcode und/oder Hexadezimalcode (z. B. Maschinensprache), Symbolcode (z. B. Assemblersprache), Dezimalcode, alphanumerischen Code, Code einer höheren Programmiersprache und so weiter oder Kombinationen davon aufweisen. So kann zum Beispiel Hexadezimalcode verwendet werden, um einen Operationscode (z. B. Opcode) eines x86-Befehlssatzes darzustellen, der einen Bytewert „00“ für eine Hinzufügungsoperation, einen Bytewert „8B“ für eine Verschiebungsoperation, einen Bytewert „FF“ für eine Inkrementierungs/Dekrementierungsoperation und so weiter aufweist.
  • Das AR-SCR-System 200 kann Logik 216 aufweisen, um Verarbeitung unter verschiedenen Komponenten und/oder Teilsystemen des AR-SCR-Systems 200 zu koordinieren. Das AR-SCR-System 200 kann einen oder mehrere Sensoren 218, einen Layout-Controller 220 und einen Contextual Manager 222 aufweisen.
  • Die Sensoren 218 können einen oder mehrere Umgebungsfaktoren 224 einer physikalischen Umgebung aufzeichnen, die Handlungen von einem oder mehreren Benutzern oder Objekten als Sensormessungen 226 (z. B. Sensordaten) aufweisen. Die Sensoren 218 können eines oder mehrere von chemischen Sensoren, Beschleunigungsmessern, visuellen Sensoren (z. B. Tiefen-, Abstands-, Kamera-, optische Sensoren), Infrarotsensoren, Drucksensoren, thermischen Sensoren, Ortsbestimmungssensoren von globalen Positionierungssystemen (GPS) oder Trägheitsbewegungssensoren aufweisen, wobei der eine oder die mehreren Sensoren zum Aufzeichnen von Umgebungsfaktoren (z. B. sensorischen Daten) vorgesehen sind, die eines oder mehrere von visuellen, Audio-, Bewegungs-, Berührungs-, Geruchs-, chemischen, Umgebungsdruck- oder thermischen Daten aufweisen.
  • Das AR-SCR-System 200 kann eine oder mehrere Benutzeroberflächen 228 aufweisen, die eine oder mehrere grafische Anzeigen 231 aufweisen, um einen Schichtverbund 232 anzuzeigen/zu betrachten, der ein Rendering 234 der Informationen in einer oder mehreren AR-Umgebungen und Benutzerbedienelemente 236 aufweist. Das AR-SCR-System 200 kann Nicht-AR-Inhalt-Benutzerbedienelemente (z. B. Buttons, die durch eine Nicht-AR-Inhaltsplattform, wie beispielsweise einen Webbrowser) dargestellt werden, in Blickbedienelemente oder Audiobedienelemente übersetzen/anpassen, um sich durch die/den in dem Schichtverbund gerenderten Informationen/Inhalt zu bewegen. Die Benutzerbedienelemente 236 können es dem Benutzer ermöglichen, den Wert von einem oder mehreren durch das AR-SCR-System 200 eingestellten und/oder geänderten Lesbarkeitsparametern außer Kraft zu setzen und Benutzerlesbarkeits-Schwellenwertpräferenzen einzustellen und/oder zu ändern. Das AR-SCR-System 200 kann ein oder mehrere Betätigungselemente (nicht gezeigt) zum Anpassen, Drehen und/oder Neigen von einer oder mehreren Benutzeroberflächen 228 oder grafischen Anzeigen 231 aufweisen, um die Lesbarkeit der in dem Schichtverbund 232 gerenderten Informationen basierend auf einem oder mehreren physikalischen Kontexten oder Vorrichtungskontexten zu verbessern.
  • Der Contextual Manager 222 kann eines oder mehrere von physikalischen Kontexten 238 oder Vorrichtungskontexten 240 von dem einen oder den mehreren Umgebungsfaktoren 224 identifizieren. Der Contextual Manager 222 kann kontextspezifische Eingaben in wünschenswerte Rendering- und Layout-Pfade zur Verwendung beim Rendering von Informationen in AR übersetzen. Die Umgebungsfaktoren 224 können zum Beispiel Bewegung, visuelle Elemente und Strukturen oder Umgebungen aufweisen, die durch eines oder mehrere von visuellen, Audio-, Berührungs-, Geruchs- oder thermischen Signaturen, Chemikalien oder Umgebungsdruck bestimmt werden, die durch die Sensoren 218 aufgezeichnet werden. Die Umgebungsfaktoren 224 können eine/n oder mehrere Orte/Umgebungen (z. B. eine Küche, ein Labor, einen Arbeitsraum, eine Flugbahn, einen Unglücksort), Benutzer oder Objekte durch eines oder mehrere von Namen, Farbe, Größe, Toneigenschaften, Funkkennung, Bewegung, Berührungs-, Geruchs-, chemische oder thermische Signaturen, die Eigenschaften einer bestimmten Geste von einem oder mehreren von einem Benutzer und/oder Objekt identifizieren. Die Vorrichtungskontexte 240 können eines oder mehrere von einem Blick eines Benutzers, einer Geste des Benutzers oder der Ausrichtung von einem oder mehreren von der AR-Vorrichtung oder den Sensoren aufweisen. Die physikalischen Kontexte 238 können eines oder mehrere von der Bewegung oder Geschwindigkeit des Benutzers oder des einen oder der mehreren Objekte, dem Abstand des Benutzers zu dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu einer/einem oder mehreren Flächen oder Orten, Temperatur, Beleuchtung, Flächenfarben, Flächentexturen, nicht visuellen Informationen oder Ton aufweisen.
  • Das AR-SCR-System 200 kann einen Bilderkennungsmanager 230 aufweisen, der Benutzer, Objekte, Flächen, Umgebungsfaktoren und/oder Tätigkeiten erkennt, die durch ein/en oder mehrere Benutzer oder Objekte durchgeführt werden, die durch die Sensoren 218 in einer Umgebung aufgezeichnet werden. Der Bilderkennungsmanager 230 kann einen/eines oder mehrere Erkennungsalgorithmen und Erkennungsmodule mit Erkennungsregeln aufweisen und/oder verwenden, um den/das/die eine/n oder mehreren Benutzer, Objekte, Flächen, Umgebungsfaktoren und/oder durch einen/eines oder mehrere Benutzer oder Objekte durchgeführten Tätigkeiten zu erkennen.
  • In einer Ausführungsform kann das AR-SCR-System 200 ein Teilsystem aufweisen (das z. B. unter Einsatz eines Software Development Kits (SDK) für erweiterte Realität implementiert wird), das Verfolgung mit Markierung und „markierungslos“ durchführt, um Objekte zu verfolgen. Das AR-SCR-System kann Objekterkennungs- und Verfolgungskomponenten und Verfolgungsalgorithmen für Spracherkennung, Gestenerkennung basierend auf Bewegungsabtastung, Nähedetektion basierend auf Bewegungsabtastung, Reedschalter- und/oder NFC-Verfolgung (Near Field Communication - Nahfeldkommunikation) aufweisen.
  • Der Layout-Controller 220 kann den Schichtverbund 232 erzeugen, um ein Rendering einer AR-Umgebung 242 einzuschließen, das Informationen (z. B. an AR angepassten Nicht-AR-Inhalt) aufweist, die in einem Layout-Pfad 244 basierend auf dem einen oder den mehreren von den physikalischen Kontexten 238 oder Vorrichtungskontexten 240 gerendert werden.
  • Der Layout-Controller 220 und/oder Contextual Manager 222 kann/können einen oder mehrere Lesbarkeitsparameter 246 auf einer konfigurierbaren Granularitätsebene (z. B. auf Pixel- oder Halbpixelbasis) des Schichtverbunds ändern, die den Layout-Pfad 244, Schriftgrad, die Farbe, Form, Gestalt oder Undurchsichtigkeit von in dem Schichtverbund 232 gerenderten Informationen aufweisen, um die Lesbarkeit der Informationen basierend auf einem oder mehreren Umgebungsfaktoren zu verbessern.
  • Das AR-SCR-System 200 kann die Parameter, die als Lesbarkeitsparameter 246 verwendet werden, sowie die Schwellenwerte und/oder Wertbereiche für die Lesbarkeitsparameter 246 dynamisch basierend auf einem oder mehreren von physikalischen Kontexten 238, Vorrichtungskontexten 240, Benutzerrückmeldungen (z. B. Anpassung der Benutzerbedienelemente 236) oder einem durch einen oder mehrere von den Sensoren 218 durchgeführten Lesbarkeitstests ändern. Das AR-SCR-System 200 kann auch ein Audioerkennungssystem (nicht gezeigt) aufweisen, um Benutzeranpassungen an den Benutzerbedienelementen 236 zu empfangen, um den Schichtverbund 232 zu betrachten. Der Layout-Controller 220 kann die Informationen auf ein oder mehrere Objekte oder Flächen rendern, die in dem Schichtverbund 232 gerendert werden, um die Lesbarkeit der Informationen zu verbessern.
  • Das AR-SCR-System 200 kann die in dem Schichtverbund 232 gerenderten Informationen von einer Inhaltsplattform (z. B. einem nicht gezeigten Webbrowser) empfangen. Nicht-AR-Inhalt von einer Inhaltsplattform kann eines oder mehrere von HTML (Hypertext Markup Language), CSS (Cascaded Style Sheet) oder JAVASCRIPT aufweisen, um den Nicht-AR-Inhalt in einer Nicht-AR-Umgebung zu rendern. Die Informationen können eines oder mehrere von Root-Schicht-Informationen 248, Scrollblock-Schicht-Informationen 250 oder Textblock-Schicht-Informationen 252 aufweisen, die durch die Inhaltsplattform (z. B. den Webbrowser) verwendet werden, um Nicht-AR-Inhalt in einem oder mehreren von der Root-Schicht, Scrollblock-Schicht oder Textblock-Schicht darzustellen. Der Layout-Controller 220 kann eine oder mehrere von den Root-Schicht-Informationen 248, den Scrollblock-Schicht-Informationen 250 oder den Textblock-Schicht-Informationen 252 und die AR-Umgebung in dem Schichtverbund 232 rendern.
  • Das AR-SCR-System 200 kann ferner eine visuelle Heatmap 254 (z. B. und/oder einen oder mehrere Indikatoren von visuellem Interesse) von den Sensormessungen 226 erzeugen, um ein/e oder mehrere Objekte oder Flächen zur Verwendung in einem oder mehreren Layout-Pfaden 244 zu identifizieren. Die visuelle Heatmap 254 kamen ein/e oder mehrere Objekte oder Flächen identifizieren, die durch die Sensoren 218 aufgezeichnet werden, um basierend auf einem oder mehreren physikalischen Kontexten oder Vorrichtungskontexten zu analysieren, die der Contextual Manager 222 identifizieren kann.
  • Das AR-SCR-System 200 und/oder der Contextual Manager 222 können Szenarienheuristiken 256 verwenden, die eine oder mehrere Tätigkeiten (die z. B. durch einen oder mehrere Benutzer oder Objekte in einer durch die Sensoren aufgezeichneten Umgebung durchgeführt werden) oder Umgebungsfaktoren identifizieren, die bestimmt werden, um einen oder mehrere bestimmte physikalische Kontexte 238, Vorrichtungskontexte 240 oder Lesbarkeitsschwellenwerte und/oder - bereiche zu identifizieren, die zum Rendering des Schichtverbunds zu verwenden sind. Wenn zum Beispiel ein Benutzer in einer Küche (z. B. einem Ort), der am Kochen (z. B. körperliche Tätigkeit) ist, mit der AR-Vorrichtung kommuniziert, um ein Rezept (z. B. Nicht-AR-Inhalt) von einer Inhaltsplattform (z. B. Website) darzustellen, kann der empfangene Inhalt basierend darauf, wo das Rezept in der AR projiziert wird, unlesbar sein. Das AR-SCR-System 200 kann den Abstand (z. B. virtuellen Abstand in der AR) berechnen, auf den der Inhalt (z. B. Webseite) projiziert werden kann (z. B. in Bezug auf die Augen des Benutzers/Trägers einer AR-Vorrichtung), und der Webbrowser (z. B. Web-Engine) und/oder das AR-SCR-System 200 können den Skalierungsfaktor des Inhalts anpassen und dabei den Text (z. B. des Rezept) bewahren, ohne das Gesichtsfeld des Benutzers in der AR-Vorrichtung zu versperren.
  • Das AR-SCR-System 200 kann mehrere Trainingsmodi bereitstellen, die explizites Training und passive Trainingsmodi aufweisen, um die Lesbarkeit von in einer AR-Umgebung gerenderten Informationen zu verbessern. Während des expliziten Trainings kann der Benutzer irgendeinen Indikator bereitstellen, dass das Durchführen des Trainings bevorsteht, was durch ein verbales oder Gestenpräfix oder durch eine verbale Satzkonstruktion erfolgen kann. Während des passiven Trainings kann das AR-SCR-System 200 Betätigungen beobachten und versuchen, basierend auf den beobachteten Betätigungen Regeln aufzubauen. Während des hybriden Trainings kann das AR-SCR-System 200 den Benutzer reagierend auffordern, das AR-SCR-System 200, den Contextual Manager 222 und/oder irgendeine andere Komponente in dem AR-SCR-System 200 explizit zu trainieren. Dann kann das AR-SCR-System 200 über Sensoren verschiedene Umgebungsfaktoren beobachten und versuchen, zusätzliche Regeln aufzubauen, um die Erkennungsgenauigkeit zu verbessern. Das AR-SCR-System 200 kann Erkennungsregeln verwenden, die durch einen oder mehrere Benutzer erzeugt werden (z. B. Crowdsourcing). Das AR-SCR-System 200 kann Regeln, die durch einen oder mehrere Benutzer während zum Beispiel des expliziten Trainings erzeugt (z. B. generiert) werden, nutzen, um die Genauigkeit der Erkennung zu verbessern und/oder die Trainingszeit zu verkürzen. Das AR-SCR-System 200 kann Regeln, die durch einen oder mehrere Benutzer erzeugt (z. B. generiert) werden, nutzen, um die Absicht (z. B. Heuristikszenarien) eines gegenwärtigen Benutzers vorherzusagen/zu erraten.
  • 3 zeigt ein Beispiel eines Verfahrens 300 zum Erzeugen eines Schichtverbunds gemäß einer Ausführungsform. Das Verfahren 300 kann als ein Modul oder eine verbundene Komponente in einem Satz von logischen Befehlen ausgeführt werden, die in einem nichtflüchtigen maschinen- oder computerlesbaren Datenträger gespeichert sind, wie beispielsweise einem Speicher mit wahlfreiem Zugriff (Random Access Memory - RAM), Nur-Lese-Speicher (Read Only Memory - ROM), programmierbaren ROM (PROM), Firmware, Flash-Speicher usw. in konfigurierbarer Logik, wie beispielsweise programmierbaren logischen Feldern (Programmable Logic Arrays - PLAs), Field Programmable Gate Arrays (FPGAs), Complex Programmable Logic Devices (CPLDs), in Hardeware-Logik mit fester Funktion unter Verwendung von Schaltungstechnologien, wie zum Beispiel anwendungsspezifische integrierte Schaltung (Application Specific Integrated Circuit - ASIC), Komplementär-Metalloxid-Halbleiter (Complementary Metal Oxide Semiconductor - CMOS) oder Transistor-Transistor-Logik (TTL) Technologie oder irgendeiner Kombination davon. Zum Beispiel kann Computerprogrammcode zum Durchführen von Operationen, die in dem Verfahren 400 gezeigt sind, in irgendeiner Kombination von einer oder mehreren Programmiersprachen geschrieben sein, die eine objektorientierte Programmiersprache, wie beispielsweise JAVA, SMALLTALK, C++ oder dergleichen, und herkömmliche prozedurale Programmiersprachen, wie beispielsweise die Programmiersprache „C“, oder ähnliche Programmiersprachen aufweisen.
  • Der veranschaulichte Verarbeitungsblock 302 sorgt unter Verwendung von einem oder mehreren Sensoren für die Aufzeichnung von einem oder mehreren Umgebungsfaktoren (z. B. Bewegung, Geschwindigkeit, Licht, Geräusche, Position, Ausrichtung usw.) einer physikalischen Umgebung. Die Umgebungsfaktoren können durch Sensoren aufgezeichnet werden, die sich auf/in einer oder mehreren AR-Vorrichtungen und/oder der physikalischen Umgebung befinden. Die Umgebungsfaktoren können in Abhängigkeit von dem einen oder den mehreren aufzuzeichnenden Umgebungsfaktoren einzeln, gleichzeitig oder zu verschiedenen Zeitpunkten aufgezeichnet werden.
  • Der veranschaulichte Verarbeitungsblock 304 sorgt für das Identifizieren von einem oder mehreren physikalischen Kontexten oder Vorrichtungskontexten von den Umgebungsfaktoren unter Verwendung eines Contextual Managers. Der Contextual Manager kann Lesbarkeitsparameter für den Nicht-AR-Inhalt basierend auf einer/einem oder mehreren Benutzerrückmeldungen, Profilen und/oder Umgebungsfaktoren an AR angepasst einstellen.
  • Der Contextual Manager und/oder Bilderkennungsmanager können ein oder mehrere Erkennungsmodelle in einer oder mehreren Modalitäten aufbauen und/oder trainieren, um einen oder mehrere physikalische Kontexte oder Vorrichtungskontexte zu identifizieren. Die Modalitäten können Bewegung, visuelle Elemente und Strukturen oder Umgebungen aufweisen, die durch eine oder mehrere von visuellen, Audio-, Berührungs-, Geruchs- oder thermischen Signaturen, Chemikalien, Druck, Funkkennung (Radio Identifier - ID) eines Objekts oder Vorhandensein von Funk einschließlich RFID (Hochfrequenzkennung), Nahfeldkommunikationen (NFC), Bluetooth, WiFi, Frequenz- und Funkmuster, Signalstärke oder Kapazität bestimmt werden. Der Contextual Manager und/oder Bilderkennungsmanager können Erkennungsmodelle durch Erzeugen von einer oder mehreren Erkennungsregeln basierend auf der Anzahl und Qualität der einen oder mehreren Übereinstimmungen und/oder Korrelationen zwischen einem oder mehreren physikalischen Kontexten oder Vorrichtungskontexten aufbauen, die von den Sensordaten durch eine oder mehrere Modalitäten identifiziert werden. Der Contextual Manager und/oder Bilderkennungsmanager können neue Erkennungsmodelle durch Kombinieren von einer oder mehreren Komponenten von einem oder mehreren abgeschlossenen oder teilweise abgeschlossenen Erkennungsmodellen erzeugen. Neue Erkennungsmodelle können auch durch einen oder mehrere Dritte bereitgestellt werden, um die Zykluszeit zum Erzeugen von Schichtverbunden und die Lesbarkeit von an AR angepasstem Nicht-AR-Inhalt zu verbessern.
  • Der veranschaulichte Verarbeitungsblock 306 sorgt dafür, dass das AR-SCR-System Informationen von einer Inhaltsplattform (z. B. Webbrowser) empfängt und/oder abruft. In einer Ausführungsform kann die Inhaltsplattform mit AR-SCR-Systemlogik ausgeführt werden, um Nicht-AR-Inhalt reagierend in/an AR zu übersetzen/anzupassen. Die von der einen oder den mehreren Inhaltsplattformen empfangenen und/oder abgerufenen Informationen können auf einer/einem oder mehreren Benutzerrückmeldungen, Profilen und/oder Umgebungsfaktoren basieren.
  • Der veranschaulichte Verarbeitungsblock 308 sorgt für die Erzeugung von einem oder mehreren Schichtverbunden zur Anzeige in/auf einer oder mehreren AR-Vorrichtungen unter Verwendung eines Layout-Controllers. Die Schichtverbunde können unter Verwendung von Lesbarkeitsparametereinstellungen erzeugt werden, die durch den Contextual Manager basierend auf einer/einem oder mehreren Benutzerrückmeldungen, Profilen und/oder Umgebungsfaktoren identifiziert werden. Die Schichtverbunde rendern Informationen, die auf ein/e oder mehrere Flächen und/oder Objekte projiziert werden, in einer physikalischen Umgebung, die durch einen oder mehrere Benutzer unter Verwendung einer AR-Vorrichtung betrachtet werden kann. Die durch die Sensoren aufgezeichnete physikalische Umgebung kann als ein Standardhintergrund für die Schichtverbunde verwendet werden, mit denen zu rendernde Informationen zu vergleichen und/oder analysieren sind, z. B. im Vordergrund des Schichtverbunds, um die Lesbarkeit der Informationen zu verbessern. Zum Beispiel können durch den Vergleich des kontrastierenden Erscheinungsbilds (z. B. bei einer Granularitätsebene, wie beispielsweise auf Pixel- oder Halbpixelbasis) von Informationen, die auf Flächen und/oder Objekte in AR projiziert werden, mit dem Erscheinungsbild der Flächen und/oder Objekte die Lesbarkeitsparameter der Informationen geändert werden, um die Lesbarkeit der Informationen (z. B. den visuellen Kontrast zwischen den Informationen und den Flächen und/oder Objekten, auf die die Informationen in AR projiziert/gerendert werden können) zu verbessern.
  • Der veranschaulichte Verarbeitungsblock 310 sorgt für das Bestimmen, ob die Lesbarkeitsparametereinstellungen einen oder mehrere Lesbarkeitsschwellenwerte (z. B. Werte und/oder Wertebereiche) erfüllen. Die Lesbarkeit der in dem Schichtverbund gerenderten Informationen kann auf einer oder mehreren Granularitätsebenen (z. B. Pixel oder Halbpixel) basierend auf Benutzerrückmeldungen (z. B. Benutzerblick oder -gesten, Audiobedienelemente) und/oder Sensormessungen bewertet werden.
  • Der veranschaulichte Verarbeitungsblock 312 sorgt für das Anzeigen des Schichtverbunds, wenn die Lesbarkeitsparameter die Lesbarkeitsschwellenwerte erfüllen. Der Schichtverbund kann auf einer oder mehreren AR-Vorrichtungen angezeigt werden, um eine physikalische Umgebung mit an AR angepasstem Nicht-AR-Inhalt zu erweitern. Ein Benutzer, der eine AR-Vorrichtung hält und/oder trägt und/oder eine Drohne betätigt, kann sich in einer physikalischen Umgebung bewegen, in der Sensoren dynamische Veränderungen bei Umgebungsfaktoren aufzeichnen, wenn sich in der physikalischen Umgebung bewegt wird. Die Lesbarkeitsparameter können kontinuierlich als Reaktion auf Veränderungen bei Umgebungsfaktoren bewertet werden, die aufgezeichnet werden, wenn sich in der physikalischen Umgebung bewegt wird. Zum Beispiel können bei der Bewegung zu/von hell beleuchteten Orten zu/von schwach beleuchteten Orten die Lesbarkeitsparameter von Informationen eingestellt/geändert werden, um die Lesbarkeit der Informationen in AR zu verbessern, wie beispielsweise Verdunkeln oder Erhellen der Farbe der Informationen auf einer konfigurierbaren Granularitätsebene (z. B. Pixel oder Halbpixel).
  • Der veranschaulichte Verarbeitungsblock 314 sorgt für die Änderung des Erscheinungsbildes der in dem Schichtverbund gerenderten Informationen, wenn ein oder mehrere Lesbarkeitsparameter einen oder mehrere Lesbarkeitsschwellenwerte nicht erfüllen. Die in dem Schichtverbund gerenderten Informationen können auf einer oder mehreren Granularitätsebenen (z. B. Pixel oder Halbpixel) basierend auf Benutzerrückmeldungen und/oder Sensormessungen bewertet werden.
  • Der veranschaulichte Verarbeitungsblock 316 sorgt für die Änderung des Erscheinungsbildes der Benutzerbedienelemente in dem Schichtverbund, wenn ein oder mehrere Lesbarkeitsparameter einen oder mehrere Lesbarkeitsschwellenwerte nicht erfüllen. Die in dem Schichtverbund gerenderten Benutzerbedienelemente können basierend auf einem oder mehreren Lesbarkeitsparametern auf einer oder mehreren Granularitätsebenen (z. B. Pixel oder Halbpixel) basierend auf Benutzerrückmeldungen und/oder Sensormessungen geändert werden.
  • Der veranschaulichte Verarbeitungsblock 318 sorgt für das Empfangen von Eingaben und/oder Rückmeldungen von einem oder mehreren Benutzern oder Sensoren, um einen oder mehrere Lesbarkeitsparameter der in dem Schichtverbund gerenderten Informationen zu ändern. Der Benutzer kann einen Blick, Gesten und/oder Audiobedienelemente der AR-Vorrichtung verwenden, um einen oder mehrere Lesbarkeitsparameter zu ändern. Die Ergebnisse von einem oder mehreren Tests für die Lesbarkeit der Informationen (die z. B. durch einen oder mehrere Sensoren durchgeführt werden), wie in AR gerendert, können verwendet werden, um einen oder mehrere Lesbarkeitsparameter zu ändern.
  • 4A ist ein Blockdiagramm 400 eines Beispiels von Nicht-AR-Inhalt gemäß einer Ausführungsform und veranschaulicht Schichten von Nicht-AR-Inhalt, dessen Layout und Rendering durch eine Inhaltsplattform (z. B. Webbrowser) mit einer Desktop- oder mobilen Vorrichtung vorgenommen werden kann. Der Nicht-AR-Inhalt kann eines oder mehrere von einer Root-Schicht 402, Scrollblock-Schicht 404 oder Textblock-Schicht 406 aufweisen, die durch die Inhaltsplattform (z. B. Webbrowser) verwendet wird, um den Nicht-AR-Inhalt (z. B. Informationen) darzustellen. Die Inhaltsplattform (z. B. Webbrowser) kann undurchsichtigen Hintergrund für das eine oder die mehreren von der Root-Schicht 402, Scrollblock-Schicht 404 oder Textblock-Schicht 406 rendern, derart, dass ein/e oder mehrere Flächen oder Objekte 408, 410 in einer Umgebung von der Sicht verdunkelt (z. B. versperrt) werden, wenn sie im Gesichtsfeld einer Benutzeroberfläche (z. B. Anzeige) einer AR-Vorrichtung betrachtet wird.
  • 4B ist ein Blockdiagramm 412 eines Beispiels für Nicht-AR-Inhalt, der an eine AR-Umgebung angepasst wird, gemäß einer Ausführungsform. Das AR-SCR-System kann einen Schichtverbund erzeugen, der als ein „räumlich bewusster Inhalt“ betrachtet wird, der auf/in einer Benutzeroberfläche einer AR-Vorrichtung gerendert wird, die die Root-Schicht-Informationen, die Scrollblock-Schicht-Informationen und die Textblock-Schicht-Informationen an AR anpasst. Zum Beispiel kann das AR-SCR-System die Informationen (z. B. Nicht-AR-Inhalt) von einer oder mehreren von der Root-Schicht 414, der Scrollblock-Schicht 416 oder der Textblock-Schicht 418 mit den physikalischen Hintergrundumgebungsflächen und/oder Objekten 420, 422, 424 mischen (z. B. die Undurchsichtigkeit verringern oder beseitigen). Das AR-SCR-System kann die Root-Schicht-Informationen, die Scrollblock-Schicht-Informationen und Textblock-Schicht-Informationen durch Ändern der Lesbarkeitsparameter der Informationen an AR anpassen. Zum Beispiel kann das AR-SCR-System die Lesbarkeitsparameter (z. B. Design) der Informationen ändern und gleichzeitig sicherstellen, dass bestimmter Vordergrundinhalt (z. B. ein Abschnitt der Informationen) gegen die eine oder die mehreren Flächen oder Objekte sichtbar bleibt. Die Schicht, die Inhalt (z. B. ein Video) enthält, kann durch AR-Eingaben, wie beispielsweise einen Blick und/oder Fokus des Benutzers, gesteuert werden und kann die Wiedergabe von Inhalt (z. B. eines Videos) automatisch anhalten, wenn z. B. der Inhalt (z. B. Informationen) für einen oder mehrere Umgebungsfaktoren, die im Sichtfeld oder am Standort des Benutzers aufgezeichnet werden, nicht relevant ist.
  • 5A ist ein Blockdiagramm 500 eines Beispiels für ein Rendering von Nicht-AR-Inhalt in einer AR-Umgebung gemäß der Beleuchtung in einer physikalischen Umgebung gemäß einer Ausführungsform. Wenn zum Beispiel ein Benutzer einer AR-Vorrichtung 502 (z. B. HoloLens) versucht, Nicht-AR-Inhalt (z. B. eine Website) zu lesen, der auf eines oder mehrere von einer Fläche, einem Objekt oder einer Wand in dem Sichtfeld des Benutzers gerendert/projiziert wird, kann das AR-SCR-System den Abstand, in dem der Inhalt 504 auf Flächen und/oder Formen von Objekten in der Umgebung zu projizieren ist, berechnen und verwenden, um die Lesbarkeitsparameter (z. B. Farbe, Undurchsichtigkeit, Schriftgrad, Form, Gestalt, Stil oder Layout) des Inhalts zu ändern und/oder die projizierten Flächen und/oder die Formen von Objekten zu bestimmen, die zu verwenden sind, um den Inhalt anzuzeigen, um die Lesbarkeit des Inhalts 504 zu verbessern.
  • 5B ist ein Blockdiagramm 506 eines anderen Beispiels von Renderings von Nicht-AR-Inhalt in einer AR-Umgebung gemäß der Beleuchtung in einer physikalischen Umgebung gemäß einer Ausführungsform. Zum Beispiel kann das AR-SCR-System ein Layout und Erscheinungsbild des Inhalts 508 reagierend erzeugen, derart dass der Inhalt 508 bei wenig Licht lesbar wird und/oder auf einer/einem oder mehreren dunklen farbigen oder beleuchteten Flächen oder Objekten platziert wird. Das AR-SCR-System kann „Nachtmodus“-Lesbarkeitsschwellenwerte und/oder Bereiche bereitstellen, die verwendet werden, um die Lesbarkeit des Inhalts 508, der auf einem dunklen Hintergrund 510 gerendert wird, und/oder aufgrund der geringen Sichtbarkeit in der Umgebung zu verbessern.
  • 6 ist ein Blockdiagramm 600 eines Beispiels eines Prozessorkerns 602 gemäß einer Ausführungsform. Der Prozessorkern 602 kann der Kern von irgendeinem Typ von Prozessor, wie beispielsweise einem Mikroprozessor, einem eingebetteten Prozessor, einem digitalen Signalprozessor (DSP), einem Netzwerkprozessor oder irgendeiner anderen Vorrichtung zum Ausführen von Code sein. Obgleich in 6 nur ein Prozessorkern 602 veranschaulicht ist, kann ein Verarbeitungselement alternativ mehr als einen von dem Prozessorkern 602, der in 6 veranschaulicht ist, aufweisen. Der Prozessorkern 602 kann ein Single-Thread-Kern sein oder der Prozessorkern 602 kann für mindestens eine Ausführungsform insofern ein Multi-Thread-Kern sein, als dass er mehr als einen Hardware-Thread-Kontext (oder „logischen Prozessor“) pro Kern aufweisen kann.
  • 6 veranschaulicht auch einen Speicher 607, der an den Prozessorkern 602 gekoppelt ist. Der Speicher 607 kann irgendeiner von einer großen Vielzahl von Speichern (die verschiedene Schichten von Speicherhierarchie aufweisen) sein, wie dem Fachmann bekannt oder auf andere Art und Weise für ihn erhältlich. Der Speicher 607 kann einen oder mehrere Codebefehl/e 613 aufweisen, die durch den Prozessorkern 600 auszuführen sind, wobei der Code 613 das Verfahren 300 (3) ausführen kann, das bereits erörtert wurde. Der Prozessorkern 602 folgt einer Programmsequenz von Befehlen, die durch den Code 613 angegeben werden. Jeder Befehl kann in einen Front-End-Abschnitt 610 eingegeben werden und durch einen oder mehrere Decodierer 620 verarbeitet werden. Der Decodierer 620 kann als seine Ausgabe eine Mikrooperation erzeugen, wie beispielsweise eine Mikrooperation mit fester Breite in einem vordefinierten Format, oder kann andere Befehle, Mikrobefehle oder Steuersignale erzeugen, die den ursprünglichen Codebefehl widerspiegeln. Der veranschaulichte Front-End-Abschnitt 610 weist auch Registerumbenennungslogik 625 und Scheduling-Logik 630 auf, die allgemein Ressourcen zuweisen und die Operation, die dem Konvertierungsbefehl entspricht, in eine Warteschlange einreihen.
  • Der gezeigte Prozessorkern 602 weist Ausführungslogik 650 auf, die eine Menge von Ausführungseinheiten 655-1 bis 655-N aufweist. Einige Ausführungsformen können eine Anzahl von Ausführungseinheiten aufweisen, die für spezifische Funktionen oder Mengen von Funktionen bestimmt sind. Andere Ausführungsformen können nur eine Ausführungseinheit oder eine Ausführungseinheit aufweisen, die eine bestimmte Funktion durchführen kann. Die veranschaulichte Ausführungslogik 650 führt die durch Codebefehle angegebenen Operationen durch.
  • Nach dem Abschluss der Ausführung der durch die Codebefehle angegebenen Operationen führt die Back-End-Logik 660 das Retirement der Befehle des Codes 613 aus. In einer Ausführungsform ermöglicht der Prozessorkern 600 Outof-Order-Ausführung, aber erfordert das In-Order-Retirement von Befehlen. Die Retirement-Logik 665 kann eine Vielzahl von Formen annehmen, wie dem Fachmann bekannt (z. B. Reorder-Buffer oder dergleichen). Auf diese Weise wird der Prozessorkern 602 während der Ausführung des Codes 613 mindestens hinsichtlich der Ausgabe, die durch den Decodierer, die durch die Registerumbenennungslogik 625 verwendeten Hardware-Register und Tabellen und irgendwelche Register (nicht gezeigt), die durch die Ausführungslogik 650 geändert werden, erzeugt wird.
  • Obgleich dies in 6 nicht veranschaulicht ist, kann ein Verarbeitungselement andere Elemente auf einem Chip mit dem Prozessorkern 602 aufweisen. Zum Beispiel kann ein Verarbeitungselement Speichersteuerlogik gemeinsam mit dem Prozessorkern 602 aufweisen. Das Verarbeitungselement kann E/A-Steuerlogik aufweisen und/oder kann E/A-Steuerlogik aufweisen, die mit Speichersteuerlogik integriert ist. Das Verarbeitungselement kann auch einen oder mehrere Caches aufweisen.
  • Nun unter Bezugnahme auf 7 ist ein Blockdiagramm einer Ausführungsform eines Rechensystems 1000 gemäß einer Ausführungsform gezeigt. In 7 gezeigt ist ein Multiprozessorsystem 1000, das ein erstes Verarbeitungselement 1070 und ein zweites Verarbeitungselement 1080 aufweist. Obgleich zwei Verarbeitungselemente 1070 und 1080 gezeigt sind, versteht sich, dass eine Ausführungsform des Systems 1000 auch nur ein solches Verarbeitungselement aufweisen kann.
  • Das System 1000 ist als ein Punkt-zu-Punkt-Zusammenschaltungssystem veranschaulicht, wobei das erste Verarbeitungselement 1070 und das zweite Verarbeitungselement 1080 über eine Punkt-zu-Punkt-Zusammenschaltung 1050 gekoppelt sind. Es versteht sich, dass irgendeine oder alle von den in 7 veranschaulichten Zusammenschaltungen anstatt als eine Punkt-zu-Punkt-Zusammenschaltung als ein Multi-Drop-Bus ausgeführt werden können.
  • Wie in 7 gezeigt, kann jedes von den Verarbeitungselementen 1070 und 1080 ein Mehrkernprozessor sein, der erste und zweite Prozessorkerne (d. h. die Prozessorkerne 1074a und 1074b und die Prozessorkerne 1084a und 1084b) aufweist. Solche Kerne 1074a, 1074b, 1084a, 1084b können ausgestaltet sein, um Befehlscode auf eine Weise auszuführen, die derjenigen ähnlich ist, die vorhergehend in Verbindung mit 6 erörtert wurde.
  • Jedes Verarbeitungselement 1070, 1080 kann mindestens einen gemeinsam verwendeten Cache 1896a, 1896b aufweisen. Der gemeinsam verwendete Cache 1896a, 1896b kann Daten (z. B. Befehle) speichern, die durch eine oder mehrere Komponenten des Prozessors, wie beispielsweise die Kerne 1074a, 1074b beziehungsweise 1084a, 1084b, genutzt werden. Zum Beispiel kann der gemeinsam verwendete Cache 1896a, 1896b Daten, die in einem Speicher 1032, 1034 gespeichert sind, für einen schnelleren Zugriff durch Komponenten des Prozessors lokal im Cache speichern. In einer oder mehreren Ausführungsformen kann der gemeinsam verwendete Cache 1896a, 1896b einen oder mehrere Caches auf mittlerer Ebene, wie beispielsweise Level 2 (L2), Level 3 (L3), Level 4 (L4), oder andere Cache-Ebenen, einen Last Level Cache (LLC) und/oder Kombinationen davon aufweisen.
  • Obgleich nur zwei Verarbeitungselemente 1070, 1080 gezeigt sind, versteht sich, dass der Schutzumfang der Ausführungsformen nicht darauf beschränkt ist. In anderen Ausführungsformen können ein oder mehrere zusätzliche Verarbeitungselemente in einem gegebenen Prozessor vorhanden sein. Alternativ können ein oder mehrere von den Verarbeitungselementen 1070, 1080 ein Element sein, das sich von einem Prozessor unterscheidet, wie beispielsweise ein Beschleuniger oder ein Field Programmable Gate Array. Zum Beispiel kann/können (ein) zusätzliche/s Verarbeitungselement/e (einen) zusätzliche/n Prozessor/en, der/die der/die gleiche/n wie der erste Prozessor 1070 ist/sind, (einen) zusätzliche/n Prozessor/en, der/die zum erstem Prozessor 1070 heterogen oder asymmetrisch ist/sind, Beschleuniger (wie z. B. Grafikbeschleuniger oder digitale Signalverarbeitungseinheiten (DSP)), Field Programmable Gate Arrays oder irgendein anderes Verarbeitungselement aufweisen. Zwischen dem/den Verarbeitungselement/en 1070, 1080 kann in Bezug auf ein Spektrum von Gütemetriken eine Vielzahl von Unterschieden bestehen, die Architektur-, Mikroarchitektur-, thermische und Leistungsverbrauchseigenschaften und dergleichen aufweisen. Diese Unterschiede können sich effektiv als Asymmetrie und Heterogenität zwischen den Verarbeitungselementen 1070, 1080 zeigen. Für mindestens eine Ausführungsform können die verschiedenen Verarbeitungselemente 1070, 1080 in dem gleichen Die-Package liegen.
  • Das erste Verarbeitungselement 1070 kann ferner Speicher-Controller-Logik (MC) 1072 und Punkt-zu-Punkt-Schnittstellen (P-P) 1076 und 1078 aufweisen. Auf ähnliche Weise kann das zweite Verarbeitungselement 1080 einen MC 1082 und P-P-Schnittstellen 1086 und 1088 aufweisen. Wie in 7 gezeigt, koppeln die MCs 1072 und 1082 die Prozessoren mit entsprechenden Speichern, nämlich einem Speicher 1032 und einem Speicher 1034, die Abschnitte von Hauptspeicher sein können, die lokal mit den entsprechenden Prozessoren verbunden sind. Obgleich die veranschaulichten MCs 1072 und 1082 in die Verarbeitungselemente 1070, 1080 integriert sind, kann die MC-Logik für alternative Ausführungsformen anstatt darin integriert diskrete Logik außerhalb der Verarbeitungselemente 1070, 1080 sein.
  • Das erste Verarbeitungselement 1070 und das zweite Verarbeitungselement 1080 können über P-P-Zusammenschaltungen 1076, 1086 an ein E/A-Teilsystem 1090 gekoppelt sein. Wie in 7 gezeigt, weist das E/A-Teilsystem 1090 P-P-Schnittstellen 1094 und 1098 auf. Ferner weist das E/A-Teilsystem 1090 eine Schnittstelle 1092 zum Koppeln des E/A-Teilsystems 1090 mit einer Hochleistungsgrafik-Engine 1038 auf. In einer Ausführungsform kann der Bus 1049 zum Koppeln der Grafik-Engine 1038 an das E/A-Teilsystem 1090 verwendet werden. Alternativ kann eine Punkt-zu-Punkt-Zusammenschaltung diese Komponenten koppeln.
  • Das E/A-Teilsystem 1090 kann über eine Schnittstelle 1096 an einen ersten Bus 1016 gekoppelt sein. In einer Ausführungsform kann der erste Bus 1016 ein Peripheral Component Interconnect (PCI) Bus oder ein Bus sein, wie beispielsweise ein PCI Express Bus oder ein anderer E/A-Zusammenschaltungsbus der dritten Generation, obgleich der Schutzbereich der Ausführungsformen nicht darauf beschränkt ist.
  • Wie in 7 gezeigt, können verschiedene E/A-Vorrichtungen 1014 (z. B. Lautsprecher, Kameras, Sensoren) an den ersten Bus 1016 gekoppelt sein, gemeinsam mit einer Bus-Brücke 1018, die den ersten Bus 1016 an einen zweiten Bus 1020 koppeln kann. In einer Ausführungsform kann der zweite Bus 1020 ein Low Pin Count (LPC) Bus sein. Verschiedene Vorrichtungen können an den zweiten Bus 1020 gekoppelt werden, die zum Beispiel in einer Ausführungsform eine Tastatur/Maus 1012, Kommunikationsvorrichtung/en 1026 und eine Datenspeichereinheit 1019, wie beispielsweise ein Plattenlaufwerk oder eine andere Massenspeichervorrichtung, aufweisen, die Code 1030 aufweisen kann. Der veranschaulichte Code 1030 kann das bereits erörterte Verfahren 300 (3) ausführen und kann dem bereits erörterten Code 613 (6) ähnlich sein. Ferner kann eine Audio-E-/A 1024 an den zweiten Bus 1020 gekoppelt sein und eine Batterie 1010 kann das Rechensystem 1000 mit Leistung versorgen.
  • Es sei erwähnt, dass andere Ausführungsformen ins Auge gefasst werden. Zum Beispiel kann anstatt der Punkt-zu-Punkt-Architektur von 7 ein System einen Multi-Drop-Bus oder eine andere solche Kommunikationstopologie ausführen. Auch können die Elemente von 7 alternativ unter Verwendung von mehr oder weniger integrierten Chips als in 7 gezeigt partitioniert werden.
  • Zusätzliche Anmerkungen und Beispiele
  • Beispiel 1 kann eine Vorrichtung zum Rendering von strukturiertem Inhalt (Structured Content Renderer - SCR) für erweiterte Realität (Augmented Reality - AR) aufweisen, die einen oder mehrere Sensoren zum Aufzeichnen von einem oder mehreren Umgebungsfaktoren einer physikalischen Umgebung, einen Contextual Manager zum Identifizieren von einem oder mehreren von einem physikalischen Kontext oder einem Vorrichtungskontext von dem einen oder den mehreren Umgebungsfaktoren und einen Layout-Controller zum Erzeugen eines Schichtverbunds aufweist, der ein Rendering einer Augmented-Reality-Umgebung (AR) aufweist, das Informationen aufweist, die in einem Layout-Pfad basierend auf dem einen oder den mehreren von dem physikalischen Kontext oder dem Vorrichtungskontext gerendert werden.
  • Beispiel 2 kann die Vorrichtung von Beispiel 1 aufweisen, wobei der Layout-Controller zum Ändern von einem oder mehreren Lesbarkeitsparametern vorgesehen ist, die den Layout-Pfad, Schriftgrad, die Farbe, Form, Gestalt oder Undurchsichtigkeit der in dem Schichtverbund gerenderten Informationen aufweisen, um die Lesbarkeit der Informationen zu verbessern.
  • Beispiel 3 kann die Vorrichtung von Beispiel 2 aufweisen, wobei der Layout-Controller zum Rendern der Informationen auf ein oder mehrere Objekte oder Flächen vorgesehen ist, die in dem Schichtverbund gerendert werden, um die Lesbarkeit der in dem Schichtverbund gerenderten Informationen zu verbessern.
  • Beispiel 4 kann die Vorrichtung von Beispiel 3 aufweisen, wobei der Vorrichtungskontext vorgesehen ist, um eines oder mehrere von einem Blick eines Benutzers, einer Geste des Benutzers oder der Ausrichtung des einen oder der mehreren Sensoren aufzuweisen.
  • Beispiel 5 kann die Vorrichtung von Beispiel 4 aufweisen, wobei der physikalische Kontext vorgesehen ist, um eines oder mehrere von der Bewegung oder Geschwindigkeit des Benutzers oder dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu einer/einem oder mehreren Flächen oder Orten, Temperatur, Beleuchtung, Flächenfarben, Flächentexturen, nicht visuellen Informationen oder Ton aufzuweisen.
  • Beispiel 6 kann die Vorrichtung von Beispiel 1 aufweisen, die ferner eine Benutzeroberfläche zum Anzeigen des Schichtverbunds für einen Benutzer und zum Empfangen von Benutzereingabe aufweist.
  • Beispiel 7 kann die Vorrichtung von Beispiel 6 aufweisen, wobei der Schichtverbund vorgesehen ist, um Benutzerbedienelemente zur Verwendung zum Betrachten des Schichtverbunds aufzuweisen.
  • Beispiel 8 kann die Vorrichtung von Beispiel 1 aufweisen, wobei die Informationen vorgesehen sind, um von einer Inhaltsplattform empfangen zu werden, wobei die Inhaltsplattform vorgesehen ist, um ein Webbrowser zu sein, und wobei die Informationen zum Identifizieren von einem oder mehreren von Root-Schicht-Informationen, Scrollblock-Schicht-Informationen oder Textblock-Schicht-Informationen für den Webbrowser vorgesehen sind.
  • Beispiel 9 kann die Vorrichtung von einem der Beispiele 1 bis 8 aufweisen, wobei der Layout-Controller zum Rendern von einem oder mehreren von den Root-Schicht-Informationen, den Scrollblock-Schicht-Informationen oder den Textblock-Schicht-Informationen und der AR-Umgebung in dem Schichtverbund vorgesehen ist.
  • Beispiel 10 kann ein Verfahren zum Rendering von strukturiertem Inhalt für erweiterte Realität (Augmented Reality - AR) aufweisen, das das Aufzeichnen von einem oder mehreren Umgebungsfaktoren einer physikalischen Umgebung unter Verwendung von einem oder mehreren Sensoren, das Identifizieren von einem oder mehreren von einem physikalischen Kontext oder einem Vorrichtungskontext von dem einen oder den mehreren Umgebungsfaktoren unter Verwendung eines Contextual Managers und das Erzeugen eines Schichtverbunds, der ein Rendering einer Augmented-Reality-Umgebung (AR), das Informationen in einem Layout-Pfad aufweist, basierend auf dem einen oder den mehreren von dem physikalischen Kontext oder dem Vorrichtungskontext unter Verwendung eines Layout-Controllers aufweist.
  • Beispiel 11 kann das Verfahren von Beispiel 10 aufweisen, das ferner das Ändern von einem oder mehreren Lesbarkeitsparametern aufweist, die den Layout-Pfad, Schriftgrad, die Farbe, Form, Gestalt oder Undurchsichtigkeit der in dem Schichtverbund gerenderten Informationen aufweisen, um die Lesbarkeit der Informationen zu verbessern.
  • Beispiel 12 kann das Verfahren von Beispiel 10 aufweisen, wobei die Informationen auf ein oder mehrere Objekte oder Flächen gerendert werden, die in dem Schichtverbund gerendert werden, um die Lesbarkeit der in dem Schichtverbund gerenderten Informationen zu verbessern.
  • Beispiel 13 kann das Verfahren von Beispiel 12 aufweisen, wobei der Vorrichtungskontext, der von dem einem oder den mehreren Umgebungsfaktoren identifiziert wird, eines oder mehrere von einem Blick eines Benutzers, einer Geste des Benutzers oder der Ausrichtung des einen oder der mehreren Sensoren aufweist.
  • Beispiel 14 kann das Verfahren von Beispiel 13 aufweisen, wobei der physikalische Kontext, der von dem einen oder den mehreren Umgebungsfaktoren identifiziert wird, eines oder mehrere von der Bewegung oder Geschwindigkeit des Benutzers oder dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu einer/einem oder mehreren Flächen oder Orten, Temperatur, Beleuchtung, Flächenfarben, Flächentexturen, nicht visuellen Informationen oder Ton aufweist.
  • Beispiel 15 kann das Verfahren von Beispiel 10 aufweisen, wobei der Schichtverbund Benutzerbedienelemente zur Verwendung zum Betrachten des Schichtverbunds aufweist.
  • Beispiel 16 kann das Verfahren von Beispiel 10 aufweisen, das ferner das Empfangen der Informationen von einer Inhaltsplattform aufweist, wobei die Inhaltsplattform vorgesehen ist, um ein Webbrowser zu sein, und wobei die Informationen eines oder mehrere von Root-Schicht-Informationen, Scrollblock-Schicht-Informationen oder Textblock-Schicht-Informationen für den Webbrowser identifizieren.
  • Beispiel 17 kann das Verfahren von Beispiel 16 aufweisen, wobei der Schichtverbund, ein Rendering von einem oder mehreren von den Root-Schicht-Informationen, den Scrollblock-Schicht-Informationen oder den Textblock-Schicht-Informationen und der AR-Umgebung aufweist.
  • Beispiel 18 kann mindestens einen computerlesbaren Datenträger aufweisen, der einen Satz von Befehlen aufweist, die, wenn sie durch eine Rechenvorrichtung ausgeführt werden, bewirken, dass die Rechenvorrichtung unter Verwendung von einem oder mehreren Sensoren einen oder mehrere Umgebungsfaktoren einer physikalischen Umgebung aufzeichnet, unter Verwendung eines Contextual Managers einen oder mehrere von einem physikalischen Kontext oder einem Vorrichtungskontext von dem einen oder den mehreren Umgebungsfaktoren identifiziert und unter Verwendung eines Layout-Controllers einen Schichtverbund erzeugt, der ein Rendering einer Augmented-Reality-Umgebung (AR), die Informationen in einem Layout-Pfad aufweist, basierend auf dem einen oder den mehreren von dem physikalischen Kontext oder dem Vorrichtungskontext aufweist.
  • Beispiel 19 kann den mindestens einen computerlesbaren Datenträger von einem der Beispiele 10 bis 18 aufweisen, wobei die Befehle, wenn sie ausgeführt werden, bewirken, dass eine Rechenvorrichtung einen oder mehreren Lesbarkeitsparameter ändert, die den Layout-Pfad, Schriftgrad, die Farbe, Form, Gestalt oder Undurchsichtigkeit der in dem Schichtverbund gerenderten Informationen aufweisen, um die Lesbarkeit der Informationen zu verbessern.
  • Beispiel 20 kann den mindestens einen computerlesbaren Datenträger von Beispiel 18 aufweisen, wobei die Informationen auf ein oder mehrere Objekte oder Flächen gerendert werden, die in dem Schichtverbund gerendert werden, um die Lesbarkeit der in dem Schichtverbund gerenderten Informationen zu verbessern.
  • Beispiel 21 kann den mindestens einen computerlesbaren Datenträger von Beispiel 20 aufweisen, wobei der Vorrichtungskontext, der von dem einen oder den mehreren Umgebungsfaktoren zu identifizieren ist, vorgesehen ist, um eines oder mehrere von einem Blick eines Benutzers, einer Geste des Benutzers oder der Ausrichtung des einen oder der mehreren Sensoren aufzuweisen.
  • Beispiel 22 kann den mindestens einen computerlesbaren Datenträger von Beispiel 21 aufweisen, wobei der physikalische Kontext, der von dem einen oder dem mehreren Umgebungsfaktoren zu identifizieren ist, vorgesehen ist, um eines oder mehrere von der Bewegung oder Geschwindigkeit des Benutzers oder des einen oder der mehreren Objekte, dem Abstand des Benutzers zu dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu einer/einem oder mehreren Flächen oder Orten, Temperatur, Beleuchtung, Flächenfarben, Flächentexturen, nicht visuellen Informationen oder Ton aufzuweisen.
  • Beispiel 23 kann den mindestens einen computerlesbaren Datenträger von Beispiel 18 aufweisen, wobei der Schichtverbund Benutzerbedienelemente zur Verwendung zum Betrachten des Schichtverbunds aufweist.
  • Beispiel 24 kann den mindestens einen computerlesbaren Datenträger von Beispiel 18 aufweisen, wobei die Befehle, wenn sie ausgeführt werden, bewirken, dass eine Rechenvorrichtung die Informationen von einer Inhaltsplattform empfängt, wobei die Inhaltsplattform vorgesehen ist, um ein Webbrowser zu sein, und wobei die Informationen zum Identifizieren von einem oder mehreren von Root-Schicht-Informationen, Scrollblock-Schicht-Informationen oder den Textblock-Schicht-Informationen für den Webbrowser vorgesehen sind.
  • Beispiel 25 kann den mindestens einen computerlesbaren Datenträger von einem der Beispiele 18 bis 24 aufweisen, wobei der Schichtverbund vorgesehen ist, um ein Rendering von einem oder mehreren von den Root-Schicht-Informationen, den Scrollblock-Schicht-Informationen oder den Textblock-Schicht-Informationen und die AR-Umgebung aufzuweisen.
  • Beispiel 26 kann eine Vorrichtung zum Rendering von strukturiertem Inhalt (Structured Content Renderer - SCR) für erweiterte Realität (Augmented Reality - AR) aufweisen, die Mittel zum Aufzeichnen von einem oder mehreren Umgebungsfaktoren einer physikalischen Umgebung unter Verwendung von einem oder mehreren Sensoren, Mittel zum Identifizieren von einem oder mehreren von einem physikalischen Kontext oder einem Vorrichtungskontext von dem einen oder den mehreren Umgebungsfaktoren unter Verwendung eines Contextual Managers und Mittel zum Erzeugen eines Schichtverbunds, der ein Rendering einer Augmented-Reality-Umgebung (AR), das Informationen in einem Layout-Pfad aufweist, basierend auf dem einen oder den mehreren von dem physikalischen Kontext oder dem Vorrichtungskontext unter Verwendung eines Layout-Controllers aufweist.
  • Beispiel 27 kann die Vorrichtung von Beispiel 26 aufweisen, die ferner Mittel zum Ändern von einem oder mehreren Lesbarkeitsparametern aufweist, die den Layout-Pfad, Schriftgrad, die Farbe, Form, Gestalt oder Undurchsichtigkeit der in dem Schichtverbund gerenderten Informationen aufweisen, um die Lesbarkeit der Informationen zu verbessern.
  • Beispiel 28 kann die Vorrichtung von Beispiel 26 aufweisen, wobei die Informationen auf ein oder mehrere Objekte oder Flächen gerendert werden, die in dem Schichtverbund gerendert werden, um die Lesbarkeit der in dem Schichtverbund gerenderten Informationen zu verbessern.
  • Beispiel 29 kann die Vorrichtung von Beispiel 28 aufweisen, wobei der Vorrichtungskontext, der von dem einen oder den mehreren Umgebungsfaktoren identifiziert wird, eines oder mehrere von einem Blick eines Benutzers, einer Geste des Benutzers oder der Ausrichtung des einen oder der mehreren Sensoren aufweist, wobei der von dem einen oder den mehreren Umgebungsfaktoren identifizierte physikalische Kontext eines oder mehrere von der Bewegung oder Geschwindigkeit des Benutzers oder des einen oder der mehreren Objekte, dem Abstand des Benutzers zu dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu der/dem einen oder mehreren Flächen oder Orten, Temperatur, Beleuchtung, Flächenfarben, Flächentexturen, nicht visuellen Informationen oder Ton aufweist.
  • Beispiel 30 kann die Vorrichtung von einem der Beispiele 26 bis 29 aufweisen, die ferner Mittel zum Empfangen der Informationen von einer Inhaltsplattform aufweist, wobei die Inhaltsplattform vorgesehen ist, um ein Webbrowser zu sein, wobei die Informationen eines oder mehrere von Root-Schicht-Informationen, Scrollblock-Schicht-Informationen oder Textblock-Schicht-Informationen für den Webbrowser identifizieren, und wobei der Schichtverbund ein Rendering von einem oder mehreren von den Root-Schicht-Informationen, den Scrollblock-Schicht-Informationen oder den Textblock-Schicht-Informationen und die AR-Umgebung aufweist.
  • Ausführungsformen sind zur Anwendung mit allen Typen von integrierten Halbleiterschaltungschips („IC“) anwendbar. Beispiele für diese integrierten Schaltungschips weisen Prozessoren, Controller, Chipsatz-Komponenten, programmierbare logische Felder (Programmable Logic Arrays - PLAs), Speicherchips, Netzwerkchips, Systems-on-Chip (SoCs), SSD/NAND-Steuer-ASICs und dergleichen auf, sind aber nicht darauf beschränkt. Darüber hinaus sind in einigen von den Zeichnungen Signalleiterleitungen mit Linien dargestellt. Einige davon können sich unterscheiden, um wesentlichere Signalwege anzugeben, eine Nummernbezeichnung aufweisen, um eine Nummer von einzelnen Signalwegen anzugeben, und/oder an einem oder mehreren Enden Pfeile aufweisen, um die Hauptinformationsflussrichtung anzugeben. Dies sollte indes nicht auf eine einschränkende Art und Weise aufgefasst werden. Stattdessen können solche hinzugefügten Details in Verbindung mit einem oder mehreren Ausführungsbeispielen verwendet werden, um ein einfacheres Verständnis einer Schaltung zu erleichtern. Irgendwelche dargestellten Signalleitungen, unabhängig davon, ob sie zusätzliche Informationen aufweisen oder nicht, können tatsächlich ein oder mehrere Signale aufweisen, die sich in eine Vielzahl von Richtungen bewegen können, und können mit irgendeinem geeigneten Typ von Signalschema ausgeführt werden, z. B. digitale oder analoge Leitungen, die mit unterschiedlichen Paaren ausgeführt werden, Glasfaserleitungen und/oder einendige Leitungen.
  • Es kann sein, dass beispielhafte Größen/Modelle/Werte/Bereiche angegeben wurden, obgleich Ausführungsformen nicht darauf beschränkt sind. Da Herstellungstechniken (z. B. Fotolithographie) mit der Zeit ausreifen, wird erwartet, dass Vorrichtungen mit kleinerer Größe hergestellt werden könnten. Darüber hinaus kann es sein, dass gut bekannte Leistung/Masse-Verbindungen mit integrierten Schaltungschips und anderen Komponenten innerhalb der Figuren der Einfachheit der Veranschaulichung und Erörterung halber und, um bestimmte Gesichtspunkte der Ausführungsformen nicht unverständlich zu machen, gezeigt oder nicht gezeigt sind. Ferner kann es sein, dass Anordnungen in Blockdiagrammform gezeigt werden, um zu vermeiden, dass Ausführungsformen unverständlich gemacht werden, und auch im Hinblick auf die Tatsache, dass spezifische Details in Bezug auf die Ausführung solcher Blockdiagrammanordnungen in hohem Maße von dem Rechensystem abhängig sind, in dem die Ausführungsform auszuführen ist, d. h. es kann sein, dass solche spezifischen Details sich durchaus im Zuständigkeitsbereich des Fachmanns befinden. Wo spezifische Details (z. B. Schaltungen) dargelegt werden, um Ausführungsbeispiele zu beschreiben, wird der Fachmann verstehen, dass Ausführungsformen ohne oder mit einer Abwandlung dieser spezifischen Details in der Praxis angewandt werden können. Die Beschreibung ist somit als veranschaulichend und nicht als einschränkend zu betrachten.
  • Der Begriff „gekoppelt“ kann hier verwendet werden, um irgendeinen Typ von direkter oder indirekter Beziehung zwischen den betreffenden Komponenten zu bezeichnen, und kann für elektrische, mechanische, Fluid-, optische, elektromagnetische, elektromechanische oder andere Verbindungen anwendbar sein. Darüber hinaus, können die Begriffe „erste/r/s“, „zweite/r/s“ usw. hier nur verwendet werden, um die Erörterung zu erleichtern, und weisen keine bestimmte zeitliche oder chronologische Bedeutung auf, es sei denn, es wird etwas anderes angegeben.
  • Wie in dieser Anmeldung und in den Ansprüchen verwendet, kann eine Liste von Elementen, die durch den Ausdruck „eines oder mehrere von“ verbunden sind, irgendeine Kombination der aufgelisteten Elemente bedeuten. Zum Beispiel können die Ausdrücke „eines oder mehrere von A, B oder C“ A; B; C; A und B; A und C; B und C; oder A, B und C bedeuten.
  • Der Fachmann wird aus der vorhergehenden Beschreibung verstehen, dass die breiten Techniken der Ausführungsformen in einer Vielzahl von Formen ausgeführt werden können. Daher sollte, obgleich die Ausführungsformen in Verbindung mit bestimmten Beispielen davon beschrieben wurden, der wahre Schutzbereich der Ausführungsformen nicht darauf beschränkt werden, da andere Abwandlungen für den Fachmann und Praktiker bei einer Untersuchung der Zeichnungen, Beschreibung und der folgenden Ansprüche ersichtlich werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 15282443 [0001]

Claims (25)

  1. Vorrichtung zum Rendering von strukturiertem Inhalt (Structured Content-Renderer - SCR) für erweiterte Realität (Augmented Reality), aufweisend: einen oder mehrere Sensoren zum Aufzeichnen von einem oder mehreren Umgebungsfaktoren einer physikalischen Umgebung, einen Contextual Manager zum Identifizieren von einem oder mehreren von einem physikalischen Kontext oder einem Vorrichtungskontext von dem einen oder den mehreren Umgebungsfaktoren, und einen Layout-Controller zum Erzeugen eines Schichtverbunds, der ein Rendering einer AR-Umgebung aufweist, das Informationen aufweist, die in einem Layout-Pfad basierend auf dem einen oder den mehreren von dem physikalischen Kontext und dem Vorrichtungskontext gerendert werden.
  2. Vorrichtung nach Anspruch 1, wobei der Layout-Controller zum Ändern von einem oder mehreren Lesbarkeitsparametern vorgesehen ist, die den Layout-Pfad, Schriftgrad, die Farbe, Form oder Undurchsichtigkeit der in dem Schichtverbund gerenderten Informationen aufweisen, um die Lesbarkeit der Informationen zu verbessern.
  3. Vorrichtung nach Anspruch 2, wobei der Layout-Controller zum Rendern der Informationen auf ein/e oder mehrere Objekte oder Flächen vorgesehen ist, die in dem Schichtverbund gerendert werden, um die Lesbarkeit der in dem Schichtverbund gerenderten Informationen zu verbessern.
  4. Vorrichtung nach Anspruch 3, wobei der Vorrichtungskontext vorgesehen ist, um eines oder mehrere von einem Blick eines Benutzers, einer Geste des Benutzers oder der Ausrichtung des einen oder der mehreren Sensoren aufzuweisen.
  5. Vorrichtung nach Anspruch 4, wobei die physikalischen Kontexte eines oder mehrere von der Bewegung oder Geschwindigkeit des Benutzers oder dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu einer/einem oder mehreren Flächen oder Orten, Temperatur, Beleuchtung, Flächenfarben, Flächentexturen, nicht visuellen Informationen oder Ton aufweisen können.
  6. Vorrichtung nach Anspruch 1, ferner aufweisend eine Benutzeroberfläche zum Anzeigen des Schichtverbunds für einen Benutzer und zum Empfangen von Benutzereingabe.
  7. Vorrichtung nach Anspruch 6, wobei der Schichtverbund vorgesehen ist, um Benutzerbedienelemente zur Verwendung zum Betrachten des Schichtverbunds aufzuweisen.
  8. Vorrichtung nach einem der Ansprüche 1 bis 7, wobei die Informationen vorgesehen sind, um von einer Inhaltsplattform empfangen zu werden, wobei die Inhaltsplattform vorgesehen ist, um ein Webbrowser zu sein, wobei die Informationen vorgesehen sind, um eines oder mehrere von Root-Schicht-Informationen, Scrollblock-Schicht-Informationen oder Textblock-Schicht-Informationen für den Webbrowser zu identifizieren, und wobei der Layout-Controller vorgesehen ist, um eines oder mehrere von den Root-Schicht-Informationen, den Scrollblock-Schicht-Informationen oder den Textblock-Schicht-Informationen und die AR-Umgebung in dem Schichtverbund zu rendern.
  9. Verfahren zum Rendering von strukturiertem Inhalt von erweiterter Realität (Augmented Reality - AR), aufweisend: Aufzeichnen von einem oder mehreren Umgebungsfaktoren einer physikalischen Umgebung unter Verwendung von einem oder mehreren Sensoren, Identifizieren von einem oder mehreren von einem physikalischen Kontext oder einem Vorrichtungskontext von dem einen oder den mehreren Umgebungsfaktoren unter Verwendung eines Contextual Managers, und unter Verwendung eines Layout-Controllers, Erzeugen eines Schichtverbunds, der ein Rendering einer AR-Umgebung aufweist, das Informationen in einem Layout-Pfad basierend auf dem einen oder den mehreren von dem physikalischen Kontext oder dem Vorrichtungskontext aufweist.
  10. Verfahren nach Anspruch 9, das ferner das Ändern von einem oder mehreren Lesbarkeitsparametern aufweist, die den Layout-Pfad, Schriftgrad, die Farbe, Form oder Undurchsichtigkeit der in dem Schichtverbund gerenderten Informationen aufweisen, um die Lesbarkeit der Informationen zu verbessern.
  11. Verfahren nach Anspruch 9, wobei die Informationen auf ein oder mehrere Objekte oder Flächen gerendert werden, die in dem Schichtverbund gerendert werden, um die Lesbarkeit der in dem Schichtverbund gerenderten Informationen zu verbessern.
  12. Verfahren nach Anspruch 11, wobei der Vorrichtungskontext, der von dem einen oder den mehreren Umgebungsfaktoren identifiziert wird, eines oder mehrere von einem Blick eines Benutzers, einer Geste des Benutzers oder der Ausrichtung des einen oder der mehreren Sensoren aufweist, und wobei der von dem einen oder den mehreren Umgebungsfaktoren identifizierte physikalische Kontext eines oder mehrere von der Bewegung oder Geschwindigkeit des Benutzers oder des einen oder der mehreren Objekte, dem Abstand des Benutzers zu dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu der/dem einen oder mehreren Flächen oder Orten, Temperatur, Beleuchtung, Flächenfarben, Flächentexturen, nicht visuellen Informationen oder Ton aufweist.
  13. Verfahren nach Anspruch 9, wobei der Schichtverbund Benutzerbedienelemente zur Verwendung zum Betrachten des Schichtverbunds aufweist.
  14. Verfahren nach einem der Ansprüche 9 bis 13, das ferner das Empfangen der Informationen von einer Inhaltsplattform aufweist, wobei die Inhaltsplattform vorgesehen ist, um ein Webbrowser zu sein, und wobei die Informationen eines oder mehrere von Root-Schicht-Informationen, Scrollblock-Schicht-Informationen oder Textblock-Schicht-Informationen für den Webbrowser aufweisen, und wobei der Schichtverbund ein Rendering von einem oder mehreren von den Root-Schicht-Informationen, den Scrollblock-Schicht-Informationen oder den Textblock-Schicht-Informationen und die AR-Umgebung aufweist.
  15. Mindestens ein computerlesbarer Datenträger, der einen Satz von Befehlen aufweist, die, wenn sie durch eine Rechenvorrichtung ausgeführt werden, bewirken, dass die Rechenvorrichtung: unter Verwendung von einem oder mehreren Sensoren einen oder mehrere Umgebungsfaktoren einer physikalischen Umgebung aufzeichnet, unter Verwendung eines Contextual Managers eines oder mehrere von einem physikalischen Kontext oder einem Vorrichtungskontext von dem einen oder den mehreren Umgebungsfaktoren identifiziert, und unter Verwendung eines Layout-Controllers einen Schichtverbund erzeugt, der ein Rendering einer Augmented-Reality-Umgebung (AR) aufweist, das Informationen in einem Layout-Pfad basierend auf dem einen oder den mehreren von dem physikalischen Kontext und dem Vorrichtungskontext aufweist.
  16. Mindestens ein computerlesbarer Datenträger nach Anspruch 15, wobei die Befehle, wenn sie ausgeführt werden, bewirken, dass eine Rechenvorri chtung: einen oder mehrere Lesbarkeitsparameter, die den Layout-Pfad, Schriftgrad, die Farbe, Form oder Undurchsichtigkeit der in dem Schichtverbund gerenderten Informationen aufweisen, ändert, um die Lesbarkeit der Informationen zu verbessern, und wobei die Informationen auf ein/e oder mehrere Objekte oder Flächen gerendert werden, die in dem Schichtverbund gerendert werden, um die Lesbarkeit der in dem Schichtverbund gerenderten Informationen zu verbessern.
  17. Mindestens ein computerlesbarer Datenträger nach Anspruch 16, wobei der Vorrichtungskontext, der von dem einen oder den mehreren Umgebungsfaktoren zu identifizieren ist, vorgesehen ist, um eines oder mehrere von einem Blick eines Benutzers, einer Geste des Benutzers oder der Ausrichtung des einen oder der mehreren Sensoren aufzuweisen.
  18. Mindestens ein computerlesbarer Datenträger nach Anspruch 17, wobei der physikalische Kontext, der von dem einen oder den mehreren Umgebungsfaktoren zu identifizieren ist, vorgesehen ist, um eines oder mehrere von der Bewegung oder Geschwindigkeit des Benutzers oder dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu einer/einem oder mehreren Flächen oder Orten, Temperatur, Beleuchtung, Flächenfarben, Flächentexturen, nicht visuellen Informationen oder Ton aufzuweisen.
  19. Mindestens ein computerlesbarer Datenträger nach Anspruch 18, wobei der Schichtverbund Benutzerbedienelemente zur Verwendung zum Betrachten des Schichtverbunds aufweist.
  20. Mindestens einen computerlesbaren Datenträger nach einem der Ansprüche 15 bis 19, wobei die Befehle, wenn sie ausgeführt werden, bewirken, dass eine Rechenvorrichtung die Informationen von einer Inhaltsplattform empfängt, wobei die Inhaltsplattform vorgesehen ist, um ein Webbrowser zu sein, wobei die Informationen zum Identifizieren von einem oder mehreren von Root-Schicht-Informationen, Scrollblock-Schicht-Informationen oder Textblock-Schicht-Informationen für den Webbrowser vorgesehen sind, und wobei der Schichtverbund vorgesehen ist, um ein Rendering von einem oder mehreren von den Root-Schicht-Informationen, den Scrollblock-Schicht-Informationen oder den Textblock-Schicht-Informationen und die AR-Umgebung aufzuweisen.
  21. Vorrichtung zum Rendering von strukturiertem Inhalt (Structured Content-Renderer - SCR) für erweiterte Realität (Augmented Reality), aufweisend: Mittel zum Aufzeichnen von einem oder mehreren Umgebungsfaktoren einer physikalischen Umgebung unter Verwendung von einem oder mehreren Sensoren, Mittel zum Identifizieren von einem oder mehreren von einem physikalischen Kontext oder einem Vorrichtungskontext von dem einen oder den mehreren Umgebungsfaktoren unter Verwendung eines Contextual Managers, und Mittel zum Erzeugen eines Schichtverbunds, der ein Rendering einer AR-Umgebung aufweist, die Informationen in einem Layout-Pfad basierend auf dem einen oder den mehreren von dem physikalischen Kontext oder dem Vorrichtungskontext aufweist, unter Verwendung eines Layout-Controllers.
  22. Vorrichtung nach Anspruch 21, die ferner Mittel zum Ändern von einem oder mehreren Lesbarkeitsparametern aufweist, die den Layout-Pfad, Schriftgrad, die Farbe, Form oder Undurchsichtigkeit der in dem Schichtverbund gerenderten Informationen aufweisen, um die Lesbarkeit der Informationen zu verbessern.
  23. Vorrichtung nach Anspruch 21, wobei die Informationen auf ein oder mehrere Objekte oder Flächen gerendert werden, die in dem Schichtverbund gerendert werden, um die Lesbarkeit der in dem Schichtverbund gerenderten Informationen zu verbessern.
  24. Vorrichtung nach Anspruch 23, wobei der Vorrichtungskontext, der von dem einen oder den mehreren Umgebungsfaktoren identifiziert wird, eines oder mehrere von einem Blick eines Benutzers, einer Geste des Benutzers oder der Ausrichtung des einen oder der mehreren Sensoren aufweist, und wobei der von dem einen oder den mehreren Umgebungsfaktoren identifizierte physikalische Kontext eines oder mehrere von der Bewegung oder Geschwindigkeit des Benutzers oder des einen oder der mehreren Objekte, dem Abstand des Benutzers zu dem einen oder den mehreren Objekten, dem Abstand des Benutzers zu der/dem einen oder mehreren Flächen oder Orten, Temperatur, Beleuchtung, Flächenfarben, Flächentexturen, nicht visuellen Informationen oder Ton aufweist.
  25. Vorrichtung nach einem der Ansprüche 21 bis 24, die ferner Mittel zum Empfangen der Informationen von einer Inhaltsplattform aufweist, wobei die Inhaltsplattform vorgesehen ist, um ein Webbrowser zu sein, und wobei die Informationen eines oder mehrere von Root-Schicht-Informationen, Scrollblock-Schicht-Informationen oder Textblock-Schicht-Informationen für den Webbrowser aufweist, und wobei der Schichtverbund ein Rendering von einem oder mehreren von den Root-Schicht-Informationen, den Scrollblock-Schicht-Informationen oder den Textblock-Schicht-Informationen und die AR-Umgebung aufweist.
DE112017005001.4T 2016-09-30 2017-08-29 Mit erweiterter realtität gerenderter strukturierter inhalt Pending DE112017005001T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/282,443 US10008042B2 (en) 2016-09-30 2016-09-30 Augmented reality rendered structured content
US15/282,443 2016-09-30
PCT/US2017/049132 WO2018063671A1 (en) 2016-09-30 2017-08-29 Augmented reality rendered structured content

Publications (1)

Publication Number Publication Date
DE112017005001T5 true DE112017005001T5 (de) 2019-07-25

Family

ID=61758803

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017005001.4T Pending DE112017005001T5 (de) 2016-09-30 2017-08-29 Mit erweiterter realtität gerenderter strukturierter inhalt

Country Status (4)

Country Link
US (1) US10008042B2 (de)
CN (1) CN109643469B (de)
DE (1) DE112017005001T5 (de)
WO (1) WO2018063671A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10511818B2 (en) * 2017-03-29 2019-12-17 Intel Corporation Context aware projection
US11037116B2 (en) * 2017-12-29 2021-06-15 Paypal, Inc. Payment transactions using an augmented reality device
US10699123B1 (en) 2018-12-26 2020-06-30 Snap Inc. Dynamic contextual media filter
EP3687166A1 (de) * 2019-01-23 2020-07-29 Ultra-D Coöperatief U.A. Interoperable 3d-bildinhaltshandhabung
US11164367B2 (en) * 2019-07-17 2021-11-02 Google Llc Illumination effects from luminous inserted content
KR102629990B1 (ko) * 2019-12-03 2024-01-25 엘지전자 주식회사 허브 및 이를 포함하는 전자 디바이스
CN111273776A (zh) * 2020-01-20 2020-06-12 芋头科技(杭州)有限公司 不透明度控制方法、装置以及ar/mr设备、控制器和介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110279453A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a location-based user interface
US10019962B2 (en) * 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US20130297460A1 (en) * 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
US9129429B2 (en) 2012-10-24 2015-09-08 Exelis, Inc. Augmented reality on wireless mobile devices
JP6225546B2 (ja) 2013-08-02 2017-11-08 セイコーエプソン株式会社 表示装置、頭部装着型表示装置、表示システムおよび表示装置の制御方法
KR20150037254A (ko) 2013-09-30 2015-04-08 엘지전자 주식회사 착용형 디스플레이 디바이스 및 레이어 제어 방법
US9626801B2 (en) 2013-12-31 2017-04-18 Daqri, Llc Visualization of physical characteristics in augmented reality
US9659381B2 (en) 2015-01-26 2017-05-23 Daqri, Llc Real time texture mapping for augmented reality system
US9760790B2 (en) * 2015-05-12 2017-09-12 Microsoft Technology Licensing, Llc Context-aware display of objects in mixed environments
US9734635B1 (en) * 2015-07-13 2017-08-15 Amazon Technologies, Inc. Environment aware color visualization

Also Published As

Publication number Publication date
CN109643469B (zh) 2024-03-12
US10008042B2 (en) 2018-06-26
CN109643469A (zh) 2019-04-16
US20180096529A1 (en) 2018-04-05
WO2018063671A1 (en) 2018-04-05

Similar Documents

Publication Publication Date Title
DE112017005001T5 (de) Mit erweiterter realtität gerenderter strukturierter inhalt
JP6744932B2 (ja) 電子画像におけるコンテンツの識別
US11137874B2 (en) Ergonomic mixed reality information delivery system for dynamic workflows
US20150100880A1 (en) Overlay images and texts in user interface
CN107291802B (zh) 关系图谱展示方法及装置
DE102015113797A1 (de) Relative Kodierung für eine blockbasierte Begrenzungsvolumenhierarchie
DE102013017510A1 (de) Effiziente Speichervirtualisierung in mehrsträngigen Verarbeitungseinheiten
DE102013017511A1 (de) Effiziente speichervirtualisierung in mehrsträngigen verarbeitungseinheiten
US10365791B2 (en) Computer user interface including lens-based enhancement of graph edges
US10360736B2 (en) Visual editor for designing augmented-reality effects
DE202017007296U1 (de) Elektronische Vorrichtung, umfassend einen gebogenen Anzeigebereich
CN112686939B (zh) 景深图像的渲染方法、装置、设备及计算机可读存储介质
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen
DE102022126287A1 (de) Speicherung und abruf von unstrukturierten daten in anwendungen konversationeller künstlicher intelligenz
DE102019107103B4 (de) Verfahren und system zur objektsegmentierung in einer mixed-reality- umgebung
CN113778622A (zh) 云桌面键盘事件处理方法、装置、设备及存储介质
EP2747071A1 (de) Anzeige eines fälschungssicheren Identitätsindikators
DE112016004883T5 (de) Schnelles Einfärben einer Berührungsanzeige
DE102020105799A1 (de) Technik, die einen effizienten und gleichzeitigen zugriff auf betriebsmittel in einem computersystem ermöglicht
US10534523B1 (en) Independent control of map data display
CN110673780A (zh) 带有手写识别的电子绘图
CN108932054A (zh) 显示装置、显示方法和非暂时性的记录介质
DE102019107145B4 (de) Verfahren, vorrichtung und nichtflüchtiges computerlesbares medium zur mixed-reality-interaktion mit einem peripheriegerät
DE102023128237A1 (de) Echtzeit-verdeckungserfassung zwischen frames für videostreaming-systeme und -anwendungen
DE102023119797A1 (de) Differenzierbare objekteinfügung unter verwendung hybrider beleuchtungsvolumina für anwendungen zur erzeugung synthetischer daten