DE102022206804A1 - Generieren und anzeigen von inhalt basierend auf jeweiligen positionen von personen - Google Patents

Generieren und anzeigen von inhalt basierend auf jeweiligen positionen von personen Download PDF

Info

Publication number
DE102022206804A1
DE102022206804A1 DE102022206804.1A DE102022206804A DE102022206804A1 DE 102022206804 A1 DE102022206804 A1 DE 102022206804A1 DE 102022206804 A DE102022206804 A DE 102022206804A DE 102022206804 A1 DE102022206804 A1 DE 102022206804A1
Authority
DE
Germany
Prior art keywords
display
person
rendering
content data
rendering property
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022206804.1A
Other languages
English (en)
Inventor
Seung Wook Kim
Alfred B. Huergo Wagner
Karol Eligiusz Czaradzki
Zachary David Corley
Felipe BACIM DE ARAUJO E SILVA
Pavel Veselinov Dudrenov
Edwin Iskandar
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE102022206804A1 publication Critical patent/DE102022206804A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Gemäß einigen Implementierungen wird ein Verfahren an einer elektronischen Vorrichtung mit einem oder mehreren Prozessoren, einem nicht-transitorischen Speicher, einem Rendering-System und einer Anzeige durchgeführt. Das Verfahren schließt das Bestimmen einer ersten Rendering-Eigenschaft basierend auf einem ersten Betrachtungswinkel einer ersten Person in Bezug auf die Anzeige ein. Das Verfahren schließt das Bestimmen einer zweiten Rendering-Eigenschaft basierend auf einem zweiten Betrachtungswinkel einer zweiten Person in Bezug auf die Anzeige ein. Die erste Rendering-Eigenschaft unterscheidet sich von der zweiten Rendering-Eigenschaft. Das Verfahren schließt das Generieren erster Anzeigeinhaltsdaten über das Rendering-System gemäß der ersten Rendering-Eigenschaft ein und das Generieren von zweiten Anzeigeinhaltsdaten über das Rendering-System gemäß der zweiten Rendering-Eigenschaft. Die ersten Anzeigeinhaltsdaten sind dem ersten Betrachtungswinkel zugeordnet. Die zweiten Anzeigeinhaltsdaten sind dem zweiten Betrachtungswinkel zugeordnet.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich auf die Inhaltsgenerierung und -anzeige und insbesondere das Generieren und Anzeigen von Inhalt basierend auf Positionen von Personen.
  • HINTERGRUND
  • Eine Vorrichtung kann Inhalt generieren und den Inhalt auf einer Anzeige anzeigen. Zu einem gegebenen Zeitpunkt kann der angezeigte Inhalt durch mehrere Personen betrachtbar sein. Die Generierung und Anzeige des Inhalts ist unabhängig von jeweiligen Positionen der mehreren Personen. Dementsprechend verwendet die Vorrichtung relativ hohe Rendering-Ressourcenniveaus und Anzeigeressourcenniveaus, um den Inhalt zu generieren und anzuzeigen.
  • KURZDARSTELLUNG
  • Gemäß einigen Implementierungen wird ein Verfahren an einer elektronischen Vorrichtung mit einem oder mehreren Prozessoren, einem nicht-transitorischen Speicher, einem Rendering-System und einer Anzeige durchgeführt. Das Verfahren schließt das Bestimmen einer ersten Rendering-Eigenschaft basierend auf einem ersten Betrachtungswinkel einer ersten Person in Bezug auf die Anzeige ein. Das Verfahren schließt das Bestimmen einer zweiten Rendering-Eigenschaft basierend auf einem zweiten Betrachtungswinkel einer zweiten Person in Bezug auf die Anzeige ein. Die erste Rendering-Eigenschaft unterscheidet sich von der zweiten Rendering-Eigenschaft. Das Verfahren schließt das Generieren erster Anzeigeinhaltsdaten über das Rendering-System gemäß der ersten Rendering-Eigenschaft ein und das Generieren von zweiten Anzeigeinhaltsdaten über das Rendering-System gemäß der zweiten Rendering-Eigenschaft. Die ersten Anzeigeinhaltsdaten sind dem ersten Betrachtungswinkel zugeordnet. Die zweiten Anzeigeinhaltsdaten sind dem zweiten Betrachtungswinkel zugeordnet.
  • Gemäß einigen Ausführungsformen wird ein Verfahren auf einer elektronischen Vorrichtung mit einem oder mehreren Prozessoren, einem nicht-transitorischen Speicher und einer Anzeige durchgeführt. Das Verfahren schließt das Erhalten erster Anzeigeinhaltsdaten, die einer ersten Person zugeordnet sind, und das Erhalten zweiter Anzeigeinhaltsdaten, die einer zweiten Person zugeordnet sind, ein. Das Verfahren schließt das Bestimmen eines ersten Anzeigebetriebsparameters basierend auf einem ersten Betrachtungswinkel der ersten Person in Bezug auf die Anzeige ein. Das Verfahren schließt das Bestimmen eines zweiten Anzeigebetriebsparameters basierend auf einem zweiten Betrachtungswinkel der zweiten Person in Bezug auf die Anzeige ein. Der erste Anzeigebetriebsparameter unterscheidet sich von dem zweiten Anzeigebetriebsparameter. Das Verfahren schließt das Anzeigen der ersten Anzeigeinhaltsdaten auf der Anzeige gemäß dem ersten Anzeigebetriebsparameter und das Anzeigen der zweiten Anzeigeinhaltsdaten auf der Anzeige gemäß dem zweiten Anzeigebetriebsparameter ein.
  • Gemäß einigen Implementierungen schließt eine elektronische Vorrichtung einen oder mehrere Prozessoren, einen nicht-transitorischen Speicher und eine Anzeige ein. Das eine oder die mehreren Programme sind im nicht-transitorischen Speicher gespeichert und konfiguriert, um durch den einen oder die mehreren Prozessoren ausgeführt zu werden, und das eine oder die mehreren Programme schließen Anweisungen zum Durchführen oder Bewirken der Durchführung der Operationen nach einem der hier beschriebenen Verfahren ein. Gemäß einigen Implementierungen sind in einem nicht-transitorischen computerlesbaren Speichermedium Anweisungen gespeichert, die, wenn sie durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung ausgeführt werden, bewirken, dass die Vorrichtung die Operationen nach einem der hier beschriebenen Verfahren durchführt oder deren Durchführung bewirkt. Gemäß einigen Implementierungen schließt eine elektronische Vorrichtung ein Mittel zum Durchführen oder Bewirken der Durchführung der Operationen nach einem der hierin beschriebenen Verfahren ein. Gemäß einigen Implementierungen schließt eine Informationsverarbeitungseinrichtung zum Gebrauch in einer elektronischen Vorrichtung ein Mittel zum Durchführen oder Bewirken der Durchführung der Operationen nach einem der hierin beschriebenen Verfahren ein.
  • Figurenliste
  • Für ein besseres Verständnis der verschiedenen beschriebenen Implementierungen sollte auf die nachfolgende Beschreibung in Verbindung mit den folgenden Zeichnungen Bezug genommen werden, in denen sich gleiche Bezugszeichen über die Figuren hinweg auf entsprechende Teile beziehen.
    • 1 ist ein Blockdiagramm eines Beispiels einer tragbaren Multifunktionsvorrichtung gemäß einigen Implementierungen.
    • 2A bis 2P sind Beispiele zum Anzeigen verschiedener Anzeigeinhaltsdaten basierend auf jeweiligen Positionen von Personen gemäß einigen Implementierungen.
    • 3 ist ein Beispiel eines ersten Systems, das Anzeigeinhaltsdaten basierend auf Rendering-Eigenschaften gemäß einigen Implementierungen generiert.
    • 4 ist ein Beispiel eines zweiten Systems, das eine Anzeige basierend auf Anzeigebetriebsparametern gemäß einigen Implementierungen steuert.
    • 5 ist ein Beispiel eines Flussdiagramms eines Verfahrens zum Generieren von Anzeigeinhaltsdaten basierend auf jeweiligen Positionen von Personen in Bezug auf eine Anzeige gemäß einigen Implementierungen.
    • 6 ist ein Beispiel eines Flussdiagramms eines Verfahrens zum Steuern einer Anzeige basierend auf jeweiligen Positionen von Personen in Bezug auf die Anzeige gemäß einigen Implementierungen.
  • BESCHREIBUNG VON IMPLEMENTIERUNGEN
  • Unter manchen Umständen stellt eine Anzeige einer Vorrichtung einen betrachtbaren Bereich bereit, der mehrere Personen einschließt. Dementsprechend können die mehreren Personen gleichzeitig die Anzeige anzeigen. Beispielsweise sind zwei Personen relativ zur Anzeige positioniert, sodass die zwei Personen gleichzeitig Inhalt sehen können, der auf der Anzeige angezeigt wird. Darüber hinaus kann eine Anzeige, die eine Lentikularlinse einschließt, unterschiedliche Inhalte für unterschiedliche Personen anzeigen, basierend auf einem entsprechenden Betrachtungswinkel zwischen einer bestimmten Person und der Anzeige. Die Vorrichtung generiert jedoch keinen Inhalt basierend auf jeweiligen Positionen der mehreren Personen oder zeigt solchen an. Dementsprechend verwendet die Vorrichtung relativ hohe Rendering- und Anzeigeressourcen in Verbindung mit der Generierung und Anzeige des Inhalts.
  • Im Gegensatz dazu schließen verschiedene hierin offenbarte Implementierungen Verfahren, Systeme und elektronische Vorrichtungen ein, die Anzeigeinhaltsdaten und/oder Steueranzeige der Anzeigeinhaltsdaten basierend auf jeweiligen Positionen von Personen in Bezug auf die Anzeige generieren. Beispielsweise ist eine erste Person in einer ersten Tiefe von der Anzeige positioniert, und eine zweite Person ist in einer zweiten Tiefe von der Anzeige positioniert, die größer als die erste Tiefe ist. Dementsprechend kann eine elektronische Vorrichtung Anzeigeinhaltsdaten höherer Auflösung für die erste Person als für die zweite Person generieren, da die erste Person näher an der Anzeige und somit besser geeignet ist, um Anzeigeinhaltsdaten höherer Auflösung wahrzunehmen. Durch Variieren der Auflösung von generierten Anzeigeinhaltsdaten reduziert die elektronische Vorrichtung die Ressourcennutzung (z. B. reduziert sie die Verarbeitungsauslastung des Grafikverarbeitungseinheit (Graphics Processing Unit, GPU) und die Speichernutzung).
  • Als weiteres Beispiel ist eine erste Person in einem ersten Betrachtungswinkel in Bezug auf eine Anzeige positioniert, und eine zweite Person ist in einem zweiten Betrachtungswinkel in Bezug auf die Anzeige positioniert, die größer als der erste Betrachtungswinkel ist. Beispielsweise ist die erste Person in Bezug auf die Anzeige horizontal zentriert (z. B. ungefähr in einem Betrachtungswinkel von Null Grad), während die zweite Person nahe dem linken Rand der Anzeige positioniert ist (z. B. in einem Betrachtungswinkel von 40 Grad). Dementsprechend zeigt eine elektronische Vorrichtung erste Anzeigeinhaltsdaten für die erste Person mit einer höheren Anzeigerahmenrate oder bei einem höheren Helligkeitsniveau als in Bezug auf die zweiten Anzeigeinhaltsdaten für die zweite Person an. Durch Variieren der Anzeigerahmenrate oder des Helligkeitsniveaus reduziert die elektronische Vorrichtung die Anzeigeressourcennutzung (z. B. reduziert sie den Leistungsverbrauch durch die Anzeige).
  • BESCHREIBUNG
  • Es wird nun ausführlich auf Implementierungen Bezug genommen, von denen Beispiele in den beigefügten Zeichnungen veranschaulicht sind. In der folgenden ausführlichen Beschreibung werden zahlreiche, spezifische Details dargelegt, um ein umfassendes Verständnis der verschiedenen beschriebenen Implementierungen bereitzustellen. Es ist jedoch für den Fachmann ersichtlich, dass die verschiedenen beschriebenen Implementierungen ohne diese spezifischen Details umgesetzt werden können. In anderen Fällen wurden hinlänglich bekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht ausführlich beschrieben, um Gesichtspunkte der Implementierungen nicht unnötig zu verunklaren.
  • Es versteht sich auch, dass, wenngleich die Begriffe „erste/erster/erstes“, „zweite/zweiter/zweites“ usw. in einigen Fällen hierin verwendet werden, um verschiedene Elemente zu beschreiben, diese Elemente nicht durch diese Begriffe beschränkt werden sollen. Diese Begriffe werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte ein erster Kontakt als zweiter Kontakt bezeichnet werden, und auf ähnliche Weise könnte ein zweiter Kontakt als erster Kontakt bezeichnet werden, ohne vom Schutzumfang der verschiedenen beschriebenen Implementierungen abzuweichen. Der erste Kontakt und der zweite Kontakt sind beide Kontakte, aber es handelt sich dabei nicht um denselben Kontakt, sofern aus dem Zusammenhang nicht eindeutig etwas anderes hervorgeht.
  • Die in der Beschreibung der verschiedenen hierin beschriebenen Implementierungen verwendete Terminologie dient lediglich der Beschreibung bestimmter Implementierungen und soll nicht einschränkend sein. Wie in der Beschreibung der verschiedenen beschriebenen Implementierungen und den beigefügten Ansprüchen verwendet, sollen die Singularformen „ein“, „eine“, „eines“ und „der“, „die“, „das“ auch die Pluralformen einschließen, sofern aus dem Zusammenhang nicht eindeutig etwas anderes hervorgeht. Es versteht sich auch, dass der Begriff „und/oder“, so wie er hierin verwendet wird, sich auf jegliche und alle möglichen Kombinationen von einem oder mehreren der damit zusammenhängenden, aufgeführten Elemente bezieht und diese einschließt. Es versteht sich ferner, dass die Begriffe „einschließen“, „einschließend“, „umfasst“ und/oder „umfassend“, wenn sie in dieser Patentschrift verwendet werden, die Gegenwart von aufgeführten Merkmalen, ganzen Zahlen, Schritten, Vorgängen, Elementen und/oder Komponenten angeben, aber die Gegenwart oder das Hinzufügen von einem oder mehreren Merkmalen, ganzen Zahlen, Schritten, Vorgängen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen.
  • Wie hierin verwendet, wird der Begriff „wenn“ optional derart ausgelegt, dass er je nach Kontext „während“ oder „bei“ oder „als Reaktion auf ein Bestimmen“ oder „als Reaktion auf ein Erfassen“ bedeutet. Gleichermaßen wird der Ausdruck „wenn bestimmt wird“ oder „wenn [eine angegebene Bedingung oder ein angegebenes Ereignis] erfasst wird“ optional derart ausgelegt, dass er je nach Kontext „bei einem Bestimmen“ oder „als Reaktion auf ein Bestimmen“ oder „bei einem Erfassen [der angegebenen Bedingung oder des angegebenen Ereignisses]“ oder „als Reaktion auf ein Erfassen [der angegebenen Bedingung oder des angegebenen Ereignisses]“ bedeutet.
  • Eine physische Umgebung bezieht sich auf eine physische Welt, die Menschen ohne die Hilfe von elektronischen Systemen wahrnehmen und/oder darin interagieren können. Die physische Umgebung kann physische Merkmale, wie eine physische Oberfläche oder ein physisches Objekt, einschließen. Zum Beispiel entspricht die physische Umgebung einem physischen Park, der physische Bäume, physische Gebäude und physische Personen einschließt. Menschen können die physische Umgebung direkt wahrnehmen und/oder mit ihr interagieren, wie durch Sehen, Berühren, Hören, Schmecken und Riechen. Im Gegensatz dazu nimmt eine Umgebung der Cross-Reality (XR) auf eine ganz oder teilweise simulierte Umgebung Bezug, die Menschen über ein elektronisches System wahrnehmen und/oder mit der sie über eine elektronische Vorrichtung interagieren. Zum Beispiel kann die XR-Umgebung Inhalte erweiterter Realität (Augmented Reality, AR), vermischter Realität (MR), virtueller Realität und/oder dergleichen einschließen. Mit einem XR-System wird eine Teilmenge der physischen Bewegungen einer Person oder deren Repräsentation verfolgt, und als Reaktion darauf werden eine oder mehrere Eigenschaften eines oder mehrerer virtueller Objekte, die in der XR-Umgebung simuliert werden, so angepasst, dass sie mit mindestens einem physikalischen Gesetz übereinstimmen. Zum Beispiel kann ein XR-System die eine Kopfbewegung erfassen und als Reaktion darauf den der Person dargestellten graphischen Inhalt und ein akustisches Feld auf eine Weise anpassen, die dem ähnelt, wie solche Ansichten und Geräusche sich in einer physischen Umgebung verändern würden. Als weiteres Beispiel kann das XR-System eine Bewegung der elektronischen Vorrichtung erfassen, welche die XR-Umgebung darstellt (z. B. ein Mobiltelefon, ein Tablet, ein Laptop oder dergleichen), und als Reaktion darauf einen grafischen Inhalt und ein akustisches Feld, die der Person dargestellt werden, auf ähnliche Weise anpassen, wie sich solche Ansichten und Geräusche in einer physischen Umgebung ändern würden. In einigen Situationen (z. B. aus Gründen der Zugänglichkeit) kann das XR-System die Eigenschaft(en) des grafischen Inhalts in der XR-Umgebung als Reaktion auf Repräsentationen physischer Bewegungen (z. B. Sprachbefehle) anpassen.
  • Es gibt viele unterschiedliche Arten von elektronischen Systemen, die einer Person ermöglichen, verschiedene XR-Umgebungen wahrzunehmen und/oder mit diesen zu interagieren. Beispiele sind am Kopf tragbare Systeme, projektionsbasierte Systeme, Heads-Up-Displays (HUDs), Fahrzeugwindschutzscheiben mit integrierter Anzeigefunktion, Fenster mit integrierter Anzeigefunktion, Displays, die als Linsen ausgebildet sind, die dazu bestimmt sind, auf den Augen einer Person platziert zu werden (z. B. ähnlich Kontaktlinsen), Kopfhörer/Ohrhörer, Lautsprecheranordnungen, Eingabesysteme (z. B. am Körper tragbare oder als Handgeräte ausgeführte Controller mit oder ohne haptische Rückmeldung), Smartphones, Tablets und Desktop-/Laptop-Computer. Ein am Kopf tragbares System kann einen oder mehrere Lautsprecher und ein integriertes opakes Display aufweisen. Alternativ kann ein am Kopf tragbares System konfiguriert sein, um ein externes opakes Display (z. B. ein Smartphone) aufzunehmen. Das am Kopf tragbare System kann einen oder mehrere bildgebende Sensoren enthalten, um Bilder oder Videoaufnahmen der physischen Umgebung zu erfassen, und/oder eines oder mehrere Mikrofone, um Audioaufnahmen der physischen Umgebung zu erfassen. Anstelle eines opaken Displays kann ein am Kopf tragbares System ein transparentes oder transluzentes Display aufweisen. Das transparente oder transluzente Display kann ein Medium aufweisen, durch das Licht, das für Bilder repräsentativ ist, auf die Augen einer Person gerichtet wird. Die Anzeige kann eine digitale Lichtprojektion, OLEDs, LEDs, uLEDs, Flüssigkristalle auf Silicium, eine Laserscanning-Lichtquelle oder eine beliebige Kombination dieser Technologien nutzen. Das Medium kann ein Lichtwellenleiter, ein Hologrammmedium, ein optischer Kombinierer, ein optischer Reflektor oder eine Kombination davon sein. In einigen Implementierungen kann das transparente oder transluzente Display konfiguriert sein, um selektiv opak zu werden. Projektionsbasierte Systeme können eine retinale Projektionstechnologie einsetzen, die grafische Bilder auf die Netzhaut einer Person projiziert. Projektionssysteme können auch so konfiguriert sein, dass sie virtuelle Objekte in die physische Umgebung projizieren, zum Beispiel als Hologramm oder auf einer physischen Oberfläche.
  • 1 ist ein Blockdiagramm eines Beispiels einer tragbaren Multifunktionsvorrichtung 100 (hierin der Kürze halber manchmal auch als die „elektronische Vorrichtung 100“ bezeichnet) gemäß einigen Implementierungen. Die elektronische Vorrichtung 100 schließt einen Speicher 102 (z. B. einen oder mehrere computerlesbare Speichermedien), eine Speichersteuerung 122, eine oder mehrere Verarbeitungseinheiten (CPUs) 120, eine Peripheriegeräteschnittstelle 118, ein Eingabe-/Ausgabe-Subsystem (E/A-Subsystem) 106, ein Anzeigesystem 112, eine inertiale Messeinheit (IME) 130, einen oder mehrere Bildsensoren 143 (z. B. eine Kamera), einen oder mehrere Kontaktintensitätssensoren 165, einen oder mehrere Audiosensoren 113 (z. B. ein Mikrofon), einen oder mehrere Augenverfolgungssensoren 164, einen Extremitätenverfolgungssensor 150 und eine oder mehrere andere Eingabe- oder Steuervorrichtungen 116 ein. In einigen Ausführungsformen entspricht die elektronische Vorrichtung 100 einem Mobiltelefon, einem Tablet, einem Laptop, einer tragbaren Rechenvorrichtung und/oder dergleichen.
  • In einigen Ausführungsformen sind die Peripheriegeräteschnittstelle 118, die eine oder die mehreren Verarbeitungseinheiten 120 und die Speichersteuerung 122 optional auf einem einzelnen Chip, wie einem Chip 103, implementiert. In einigen anderen Implementierungen sind sie optional auf separaten Chips implementiert.
  • Das E/A-Subsystem 106 koppelt Eingabe-/Ausgabeperipherievorrichtungen an die elektronischen Vorrichtung 100, wie das Anzeigesystem 112 und die anderen Eingabe- oder Steuervorrichtungen 116, mit der Peripherievorrichtungsschnittstelle 118. Das E/A-Subsystem 106 schließt optional eine Anzeigesteuerung 156, eine Bildsensorsteuerung 158, eine Intensitätssensorsteuerung 159, eine Audiosteuerung 157, eine Augenverfolgungssteuerung 160, eine oder mehrere Eingabesteuerungen 152 für andere Eingabe- oder Steuervorrichtungen, eine IME-Steuerung 132, eine Extremitätenverfolgungssteuerung 180 und ein Datenschutzsubsystem 170 ein. Die eine oder die mehreren Eingabesteuerungen 152 empfangen/senden elektrische Signale von den/an die anderen Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabe- oder Steuervorrichtungen 116 schließen wahlweise physische Tasten (z. B. Drucktasten, Wipptasten usw.), Drehsteuerungen, Schiebeschalter, Joysticks, Klickräder und dergleichen ein. In einigen alternativen Implementierungen sind die eine oder die mehreren Eingabesteuerungen 152 optional mit einem (oder keinem) von Folgendem gekoppelt: einer Tastatur, einer Infrarotschnittstelle, einem Universal-Serial-Bus-Anschluss (USB-Anschluss), einer an einem Finger tragbaren Vorrichtung und/oder einer Zeigevorrichtung, wie einer Maus. Die eine oder die mehreren Tasten schließen optional eine Drucktaste ein. In einigen Implementierungen schließt die anderen Eingabe- oder Steuervorrichtungen 116 ein Positionssystem (z. B. GPS) ein, das Informationen über den Standort und/oder die Ausrichtung der elektronischen Vorrichtung 100 bezogen auf ein bestimmtes Objekt erhält. In einigen Implementierungen schließen die anderen Eingabe- oder Steuervorrichtungen 116 einen Tiefensensor und/oder einen Flugzeitsensor ein, der Tiefeninformationen erhält, die ein physisches Objekt in einer physischen Umgebung kennzeichnen. In einigen Implementierungen schließen die anderen Eingabe- oder Steuervorrichtungen 116 einen Umgebungslichtsensor ein, der Umgebungslicht von einer physischen Umgebung erfasst und entsprechende Umgebungslichtdaten ausgibt.
  • Das Anzeigesystem 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der elektronischen Vorrichtung 100 und einem Benutzer bereit. Die Anzeigesteuerung 156 empfängt und/oder sendet elektrische Signale von dem/an das Anzeigesystem 112. Das Anzeigesystem 112 zeigt dem Benutzer visuelle Ausgaben an. Die visuelle Ausgabe schließt optional Grafiken, Text, Symbole, Video und jede beliebige Kombination davon ein (hierin manchmal als „computergenerierter Inhalt“ bezeichnet). In einigen Implementierungen entsprechen einige oder alle der visuellen Ausgaben Benutzerschnittstellenobjekten. Wie hierin verwendet, bezieht sich der Begriff „Affordanz“ auf ein benutzerinteraktives Objekt der grafischen Benutzerschnittstelle (z. B. ein Objekt der grafischen Benutzerschnittstelle, das konfiguriert ist, um auf Eingaben zu reagieren, die auf das Objekt der grafischen Benutzerschnittstelle gerichtet sind). Beispiele für benutzerinteraktive Objekte der grafischen Benutzerschnittstelle schließen ohne Einschränkung eine Schaltfläche, einen Schieber, ein Symbol, ein auswählbares Menüelement, einen Schalter, einen Hyperlink oder eine andere Benutzerschnittstellensteuerung ein.
  • Das Anzeigesystem 112 kann eine berührungsempfindliche Oberfläche, einen Sensor oder einen Satz von Sensoren aufweisen, der Eingaben von einem Benutzer basierend auf haptischem und/oder Tastkontakt annimmt. Das Anzeigesystem 112 und die Anzeigesteuerung 156 (zusammen mit allen zugeordneten Modulen und/oder Anweisungssätzen in dem Speicher 102) erfassen einen Kontakt (und jede Bewegung oder ein Abbrechen des Kontakts) auf dem Anzeigesystem 112 und wandeln den erfassten Kontakt in eine Interaktion mit Benutzerschnittstellenobjekten (z. B. einem oder mehreren Softkeys, Symbolen, Webseiten oder Bildern), die auf dem Anzeigesystem 112 angezeigt werden, um. In einer beispielhaften Implementierung entspricht ein Kontaktpunkt zwischen dem berührungsempfindlichen Anzeigesystem 112 und dem Benutzer einem Finger des Benutzers oder einer an einem Finger tragbare Vorrichtung.
  • Das Anzeigesystem 112 verwendet optional LCD-Technologie (Liquid Crystal Display Technology, Flüssigkristallanzeigetechnologie), LPD-Technologie (Light Emitting Polymer Display, Technologie einer lichtemittierenden Polymeranzeige) oder LED-Technologie (Light Emitting Diode, Leuchtdiodentechnologie), wenngleich in anderen Implementierungen andere Anzeigetechnologien verwendet werden. Das Anzeigesystem 112 und die Anzeigesteuerung 156 erfassen optional einen Kontakt und jede Bewegung oder ein Abbrechen davon unter Verwendung einer Vielzahl bereits bekannter oder zu einem späteren Zeitpunkt entwickelter Berührungserfassungstechnologien, einschließlich, aber ohne darauf beschränkt zu sein, kapazitiver, resistiver und Infrarottechnologien und Technologien akustischer Oberflächenwellen, sowie anderer Näherungssensoranordnungen oder anderer Elemente zum Bestimmen von einem oder mehreren Kontaktpunkten mit dem Anzeigesystem 112.
  • Der Benutzer stellt optional einen Kontakt mit dem Anzeigesystem 112 her, indem er ein geeignetes Objekt oder einen Fortsatz, wie einen Eingabestift, eine an einem Finger tragbaren Vorrichtung, einen Finger usw., verwendet. In einigen Implementierungen ist die Benutzerschnittstelle dazu ausgelegt, mit fingerbasierten Kontakten und Gesten zu arbeiten, die aufgrund der größeren Kontaktfläche eines Fingers auf dem Touchscreen weniger genau als eine Eingabe mit einem Eingabestift sein können. In einigen Implementierungen übersetzt die elektronische Vorrichtung 100 die grobe, auf Fingern basierende Eingabe in eine präzise Position Zeiger-/Cursor-Position oder in einen Befehl zum Durchführen der vom Benutzer gewünschten Aktionen.
  • Die Audioschaltung empfängt außerdem elektrische Signale, die durch die Audiosensoren 113 (z. B. ein Mikrofon) aus Schallwellen umgewandelt werden. Die Audioschaltung wandelt die elektrischen Signale in Audiodaten um und überträgt die Audiodaten zur Verarbeitung an die Peripheriegeräteschnittstelle 118. Audiodaten werden optional durch die Peripheriegeräteschnittstelle 118 aus dem Speicher 102 und/oder der HF-Schaltung abgerufen und/oder an diese übertragen. In einigen Implementierungen schließt die Audioschaltung außerdem einen Kopfhöreranschluss ein. Der Kopfhöreranschluss stellt eine Schnittstelle zwischen der Audioschaltung und entfernbaren Eingabe/Ausgabe-Peripheriegeräten, wie einem Nur-Ausgabe-Kopfhörer oder einem Kopfhörersatz mit sowohl Ausgabe (z. B. einem Kopfhörer für ein oder beide Ohren) als auch Eingabe (z. B. ein Mikrofon), bereit.
  • Die inertiale Messeinheit (IME) 130 schließt Beschleunigungsmesser, Gyroskope und/oder Magnetometer ein, um verschiedene Kräfte, Winkelgeschwindigkeiten und/oder Magnetfeldinformationen in Bezug auf die elektronische Vorrichtung 100 messen. Dementsprechend erfasst die IMU 130 gemäß verschiedenen Implementierungen eine oder mehrere Positionsänderungseingaben der elektronischen Vorrichtung 100, wie dass die elektronische Vorrichtung 100 geschüttelt, gedreht, in eine bestimmte Richtung bewegt wird, und/oder dergleichen.
  • Der/die Bildsensor(en) 143 nehmen Standbilder und/oder Video auf. In einigen Implementierungen befindet sich ein Bildsensor 143 auf der Rückseite der elektronischen Vorrichtung 100 gegenüber einem Touchscreen auf der Vorderseite der elektronischen Vorrichtung 100, sodass der Touchscreen für eine Verwendung als Bildsucher für eine Stand- und/oder Videobilderfassung befähigt ist. In einigen Implementierungen befindet sich ein weiterer Bildsensor 143 auf der Vorderseite der elektronischen Vorrichtung 100, sodass das Bild des Benutzers (z. B. für Selfies, für Videokonferenzen, während der Benutzer die anderen Teilnehmer der Videokonferenz auf dem Touchscreen sieht, usw.) erhalten wird. Beispielsweise gibt der eine oder die mehreren Bildsensoren 143 Bilddaten aus, die eine physische Person in einer physischen Umgebung darstellen.
  • Die Kontaktintensitätssensoren 165 erfassen die Intensität von Kontakten auf der elektronischen Vorrichtung 100 (z. B. eine Berührungseingabe auf einer berührungsempfindlichen Oberfläche der elektronischen Vorrichtung 100). Die Kontaktintensitätssensoren 165 sind mit der Intensitätssensorsteuerung 159 in dem E/A-Subsystem 106 gekoppelt. Der/die Kontaktintensitätssensor(en) 165 schließen optional einen oder mehrere piezoresistive Dehnungsmesser, kapazitive Kraftsensoren, elektrische Kraftsensoren, piezoelektrische Kraftsensoren, optische Kraftsensoren, kapazitive berührungsempfindliche Oberflächen oder andere Intensitätssensoren (z. B. Sensoren, die zum Messen der Kraft (oder des Drucks) eines Kontakts auf einer berührungsempfindlichen Oberfläche verwendet werden) ein. Der/die Kontaktintensitätssensor(en) 165 empfangen Kontaktintensitätsinformationen (z. B. Druckinformationen oder einen Stellvertreter für Druckinformationen) aus der physischen Umgebung. In einigen Implementierungen ist mindestens ein Kontaktintensitätssensor 165 zusammen mit oder in der Nähe einer berührungsempfindlichen Oberfläche der elektronischen Vorrichtung 100 angeordnet. In einigen Implementierungen befindet sich mindestens ein Kontaktintensitätssensor 165 an der Seite der elektronischen Vorrichtung 100.
  • Der eine oder die mehreren Augenverfolgungssensoren 164 erfassen den Blick eines Benutzers der elektronischen Vorrichtung 100 und generieren Augenverfolgungsdaten, die die Blickposition des Benutzers angeben. In verschiedenen Implementierungen schließen die Augenverfolgungsdaten Daten ein, die einen Fixationspunkt (z. B. einen Referenzpunkt) des Benutzers auf einem Anzeigefeld angeben.
  • Der Extremitätenverfolgungssensor 150 erhält Verfolgungsdaten von Extremitäten, die eine Position einer Extremität eines Benutzers angeben. Beispielsweise entspricht in einigen Implementierungen der Extremitätenverfolgungssensor 150 einem Handverfolgungssensor, der Handverfolgungsdaten erhält, die eine Position einer Hand oder eines Fingers eines Benutzers in einem bestimmten Objekt angeben. In einigen Implementierungen verwendet der Extremitätenverfolgungssensor 150 Computervisionstechniken, um die Haltung der Extremität basierend auf Kamerabildern zu schätzen.
  • In verschiedenen Implementierungen schließt die elektronische Vorrichtung 100 ein Datenschutzsubsystem 170 ein, das einen oder mehrere Datenschutzeinstellungsfilter einschließt, die Benutzerinformationen, wie Benutzerinformationen, die in den einem Benutzer zugeordneten Extremitätenverfolgungsdaten, Blickdaten und/oder Körperpositionsdaten eingeschlossen sind, zugeordnet sind. In einigen Implementierungen verhindert und/oder begrenzt das Datenschutzsubsystem 170 selektiv, dass die elektronische Vorrichtung 100 oder Abschnitte davon die Benutzerinformationen erhalten und/oder übertragen. Zu diesem Zweck empfängt das Datenschutzsubsystem 170 Benutzerpräferenzen und/oder Auswahlen vom Benutzer als Reaktion darauf, dass der Benutzer hierzu aufgefordert wird. In einigen Implementierungen verhindert das Datenschutzsubsystem 170, dass die elektronische Vorrichtung 100 die Benutzerinformationen erhält und/oder überträgt, sofern nicht und bis das Datenschutzsubsystem 170 eine informationsgestützte Einwilligung vom Benutzer erhält. In einigen Implementierungen anonymisiert (z. B. verschlüsselt oder verdeckt) das Datenschutzsubsystem 170 bestimmte Typen von Benutzerinformationen. Beispielsweise empfängt das Datenschutzsubsystem 170 Benutzereingaben, die angeben, welche Arten von Benutzerinformationen das Datenschutzsubsystem 170 anonymisiert. Als weiteres Beispiel anonymisiert das Datenschutzsubsystem 170 bestimmte Arten von Benutzerinformationen, die wahrscheinlich sensible und/oder identifizierende Informationen einschließen, unabhängig von einer Benutzerangabe (z. B. automatisch).
  • 2A bis 2P sind Beispiele zum Anzeigen verschiedener Anzeigeinhaltsdaten basierend auf jeweiligen Positionen von Personen gemäß einigen Implementierungen. Wie in 2A veranschaulicht, schließt eine physische Umgebung 200 eine Wand 202, eine erste Person 220, eine zweite Person 230 und einen Benutzer 50 ein, der eine elektronische Vorrichtung 210 hält. In einigen Implementierungen ist die elektronische Vorrichtung 210 eine mobile elektronische Vorrichtung wie ein Smartphone, eine Smartwatch, ein Tablet oder dergleichen.
  • Die elektronische Vorrichtung 210 schließt eine Anzeige 212 ein, die einem betrachtbaren Bereich 214 der physischen Umgebung 200 zugeordnet ist. Der betrachtbare Bereich 214 schließt einen Abschnitt der Wand 202, die erste Person 220 und die zweite Person 230 ein. Dementsprechend können die erste Person 220 und die zweite Person 230 den auf der Anzeige 212 angezeigten Inhalt anzeigen. In einigen Implementierungen schließt die elektronische Vorrichtung 210 mehrere Anzeigen ein, wie die Anzeige 212 und eine andere Anzeige. Beispielsweise ist die Anzeige 212 nach außen gewandt (z. B. der ersten Person 220 und der zweiten Person 230 zugewandt), während die andere Anzeige dem Benutzer 50 zugewandt ist und für den Benutzer 50 betrachtbar ist.
  • In einigen Implementierungen entspricht die Anzeige 212 einer Lentikularanzeige, wie wenn eine Lentikularlinse über (z. B. in Kontakt mit der Oberfläche von) der Anzeige 212 angeordnet ist. Eine Lentikularlinse kann eine Anordnung von Vergrößerungselementen einschließen. Jedes der Vergrößerungselemente kann unterschiedliche Anzeigeinhaltsdaten basierend auf entsprechenden Betrachtungswinkeln von Personen in Bezug auf die Anzeige 212 vergrößern. Beispielsweise vergrößert ein erstes Vergrößerungselement erste Anzeigeinhaltsdaten, die auf der Anzeige 212 angezeigt werden, wobei die vergrößerten ersten Anzeigeinhaltsdaten für die erste Person 220 betrachtbar sind, aber nicht für die zweite Person 230 betrachtbar sind. Als weiteres Beispiel vergrößert ein zweites Vergrößerungselement zweite Anzeigeinhaltsdaten, die auf der Anzeige 212 angezeigt werden, wobei die vergrößerten zweiten Anzeigeinhaltsdaten für die zweite Person 230 betrachtbar sind, aber nicht für die erste Person 220 betrachtbar sind. Eine Lentikularlinse kann konfiguriert sein, um eine stereoskopische Betrachtung der Anzeige 212 so zu ermöglichen, dass eine Person dreidimensionale (3D) Bilder wahrnimmt. In einigen Implementierungen wird eine Vielzahl von Lentikularlinsen über der Anzeige 212 platziert. Beispielsweise deckt jede der Vielzahl von Lentikularlinsen einen jeweiligen Abschnitt von Pixeln der Anzeige 212 ab.
  • In einigen Implementierungen schließt die elektronische Vorrichtung 210 einen oder mehrere Umgebungssensoren ein. Jeder des einen oder der mehreren Umgebungssensoren gibt Umgebungsdaten aus, die der physischen Umgebung 200 zugeordnet sind. Beispielsweise schließen der eine oder die mehreren Umgebungssensoren einen Bildsensor ein, der einen Abschnitt der physischen Umgebung 200 erfasst und Bilddaten ausgibt, die den Abschnitt der physischen Umgebung 200 darstellen. Wie nachstehend beschrieben, kann die elektronische Vorrichtung 210 jeweilige Positionen der ersten Person 220 und der zweiten Person 230 basierend auf den Umgebungsdaten bestimmen.
  • Die elektronische Vorrichtung 210 erhält oder bestimmt verschiedene Positionsinformationen in Bezug auf die erste Person 220 und die zweite Person 230. Die Positionsinformationen kennzeichnen jeweilige Positionen der ersten Person 220 und der zweiten Person 230 in Bezug auf die Anzeige 212. In einigen Implementierungen bestimmt die elektronische Vorrichtung 210 die Positionsinformationen basierend auf den Umgebungsdaten. Beispielsweise führt die elektronische Vorrichtung 210 eine Computervisionstechnik (z. B. semantische Segmentierung) in Bezug auf Bilddaten durch, um eine erste Position der ersten Person 220 zu bestimmen und eine zweite Position der zweiten Person 230 zu bestimmen.
  • Wie in 2B veranschaulicht, bestimmt die elektronische Vorrichtung 210 eine erste Augenposition 222, die einem Auge der ersten Person 220 entspricht, und bestimmt eine zweite Augenposition 232, die einem Auge der zweiten Person 230 entspricht.
  • Beispielsweise führt die elektronische Vorrichtung 210 eine semantische Segmentierung in Bezug auf Bilddaten durch, um eine semantische Markierung für „Auge“ für die erste Person 220 zu erhalten und eine semantische Markierung für „Auge“ für die zweite Person 230 zu erhalten. Ein Durchschnittsfachmann wird erkennen, dass die elektronische Vorrichtung 210 jeden Abschnitt einer Person verfolgen kann, um zu bestimmen, wie entsprechende Anzeigeinhaltsdaten angezeigt werden sollen. Darüber hinaus ist die erste Augenposition 222 einer ersten Sichtlinie (Line of Sight, LOS) 224 in Bezug auf die Anzeige 212 zugeordnet, und die zweite Augenposition 232 ist einer zweiten LOS 234 in Bezug auf die Anzeige 212 zugeordnet.
  • Wie ferner in 2B veranschaulicht, bestimmt die elektronische Vorrichtung 210 einen ersten Betrachtungswinkel θ1, der der ersten Person 220 zugeordnet ist, basierend auf der ersten Augenposition 222, und bestimmt einen zweiten Betrachtungswinkel θ2, der der zweiten Person 230 zugeordnet ist, basierend auf der zweiten Augenposition 232. Der erste Betrachtungswinkel θ1 entspricht einem Winkel zwischen der ersten Augenposition 222 und einer ersten Referenzlinie 216. Die erste Referenzlinie 216 ist in Bezug auf die Anzeige 212 normal, wobei sie durch die Anzeige 212 in Richtung der Wand 202 verläuft. Der zweite Betrachtungswinkel θ2 entspricht einem Winkel zwischen der zweiten Augenposition 232 und der ersten Referenzlinie 216. Beispielsweise zeigt jeder der ersten Betrachtungswinkel θ1 und der zweiten Betrachtungswinkel θ2 einen jeweiligen horizontalen Versatz von der Mitte des betrachtbaren Bereichs 214 auf. Dementsprechend ist eine Person, die in der Mitte des betrachtbaren Bereichs 214 positioniert ist (z. B. im Schnittpunkt der ersten Referenzlinie 216) einem Betrachtungswinkel von ungefähr null Grad zugeordnet. Andererseits ist eine Person, die in der Nähe des betrachtbaren Bereichs 214 positioniert ist, einem größeren Betrachtungswinkel (z. B. 40 Grad) zugeordnet. In einigen Implementierungen bestimmt die elektronische Vorrichtung 210 den ersten Betrachtungswinkel θ1 und den zweiten Betrachtungswinkel θ2 durch Durchführen einer Computervisionstechnik (z. B. semantische Segmentierung) in Bezug auf Bilddaten von einem Bildsensor, der die physische Umgebung 200 erfasst. Beispielsweise ist eine erste Person, die in der Nähe der Mitte eines Bildes dargestellt ist, einem kleineren Betrachtungswinkel zugeordnet als eine zweite Person, die weiter von der Mitte des Bildes dargestellt wird.
  • In einigen Implementierungen bestimmt die elektronische Vorrichtung 210, wie ferner in 2B veranschaulicht, eine erste Tiefe 226, die der ersten Person 220 in Bezug auf die Anzeige 212 zugeordnet ist, und bestimmt eine zweite Tiefe 236, die der zweiten Person 230 in Bezug auf die Anzeige 212 zugeordnet ist. Die erste Tiefe 226 entspricht einem Abstand zwischen der ersten Augenposition 222 und einer zweiten Referenzlinie 218. Die zweite Referenzlinie 218 ist parallel zur Anzeige 212 (z. B. verläuft sie entlang der Oberfläche der Anzeige 212). Die zweite Tiefe 236 entspricht einem Abstand zwischen der zweiten Augenposition 232 und der zweiten Referenzlinie 218. Wie in 2B veranschaulicht, ist die erste Tiefe 226 größer als die zweite Tiefe 236, da sich die erste Person 220 weiter von der Anzeige 212 (und näher an der Wand 202) befindet als die zweite Person 230 zur Anzeige 212. In einigen Implementierungen schließt die elektronische Vorrichtung 210 einen Tiefensensor ein, der Tiefendaten ausgibt, die die erste Tiefe 226 und die zweite Tiefe 236 angeben. In einigen Implementierungen bestimmt die elektronische Vorrichtung 210 die erste Tiefe 226 und die zweite Tiefe 236 basierend auf einer Kombination der Tiefendaten und dem Durchführen einer Computervision in Bezug auf Bilddaten von einem Bildsensor.
  • Gemäß verschiedenen Implementierungen generiert und steuert die elektronische Vorrichtung 210 basierend auf den verschiedenen Positionsinformationen (z. B. jeweiligen Betrachtungswinkeln und jeweiligen Tiefen) die Anzeige unterschiedlicher Anzeigeinhaltsdaten auf der Anzeige 212.
  • Beispielsweise generiert in einigen Implementierungen die elektronische Vorrichtung 210 über ein Rendering-System unterschiedliche Anzeigeinhaltsdaten basierend auf Rendering-Eigenschaften. Eine bestimmte Rendering-Eigenschaft kann einen Grad der Bildqualität der Ausgabe des Rendering-Systems angeben. Als ein Beispiel generiert das Rendering-System Inhaltsdaten höherer Auflösung für eine Person, die einer geringeren Tiefe oder einem kleineren Betrachtungswinkel zugeordnet ist. Als weiteres Beispiel generiert das Rendering-System Anzeigeinhaltsdaten bei einer niedrigeren Rendering-Frequenz (z. B. generiert die grafische Verarbeitungseinheit (Graphic Processing Unit, GPU) weniger Bildrahmen pro Sekunde) für eine Person, die einer größeren Tiefe oder einem größeren Betrachtungswinkel zugeordnet ist. Weitere Details hinsichtlich der Bestimmung und Nutzung von Rendering-Eigenschaften werden unter Bezugnahme auf 3 beschrieben.
  • Als weiteres Beispiel steuert die elektronische Vorrichtung 210 in einigen Implementierungen die Anzeige von Anzeigeinhaltsdaten basierend auf Anzeigebetriebsparametern. Ein bestimmter Anzeigebetriebsparameter kann eine Anzeigequalität oder -leistung angeben, die der Anzeige von Anzeigeinhaltsdaten auf einer Anzeige zugeordnet ist. Beispielsweise schließt die elektronische Vorrichtung 210 in einigen Implementierungen eine Anzeigesteuerung ein, die Pixelbeleuchtungsniveuas (z. B. Helligkeitsniveaus) einstellt, die Pixeln einer Anzeige zugeordnet sind, oder eine Anzeigerahmenrate einstellt, die der Anzeige zugeordnet ist. Als ein Beispiel setzt die Anzeigesteuerung eine Teilmenge der Pixel der Anzeige 212 auf ein bestimmtes Beleuchtungsniveau ein, wobei die Teilmenge der Pixel einer bestimmten Person (z. B. betrachtbar durch) zugeordnet ist. In Fortsetzung dieses Beispiels kann das bestimmte Beleuchtungsniveau umgekehrt proportional zu der Tiefe oder dem Betrachtungswinkel sein, der der bestimmten Person zugeordnet ist. Als weiteres Beispiel sind Anzeigeinhaltsdaten einer bestimmten Person zugeordnet (z. B. betrachtbar durch), und die Anzeigeinhaltsdaten schließen eine Vielzahl von Bildern ein. In Fortsetzung dieses Beispiels weist die Anzeigesteuerung die Anzeige 212 auf, um die Vielzahl von Bildern mit einer bestimmten Anzeigerate (z. B. Rahmen pro Sekunde (Frames Per Second, FPS)) anzuzeigen, die umgekehrt proportional zu der Tiefe oder dem Betrachtungswinkel sein kann, der der bestimmten Person zugeordnet ist. Weitere Details in Bezug auf das Bestimmen und Nutzen von Anzeigebetriebsparametern werden unter Bezugnahme auf 4 beschrieben.
  • Wie in 2C veranschaulicht, zeigt die elektronische Vorrichtung 210 auf der Anzeige 212 erste Anzeigeinhaltsdaten 242, die einem Fußball entsprechen, und zweite Anzeigeinhaltsdaten 240, die einem Basketball entsprechen, an. Die ersten Anzeigeinhaltsdaten 242 sind dem ersten Betrachtungswinkel θ1 zugeordnet und die zweiten Anzeigeinhaltsdaten 240 sind dem zweiten Betrachtungswinkel θ2 zugeordnet. Dementsprechend sind die ersten Anzeigeinhaltsdaten 242 durch die erste Person 220 über die erste LOS 224 betrachtbar, und die zweiten Anzeigeinhaltsdaten 240 sind durch die zweite Person 230 über die zweite LOS 234 betrachtbar. In einigen Implementierungen, wie wenn die Anzeige 212 eine Lentikularlinse einschließt, sind die ersten Anzeigeinhaltsdaten 242 durch die erste Person 220 betrachtbar, aber nicht durch die zweite Person 230 betrachtbar, während die zweiten Inhaltsdaten 240 durch die zweite Person 230 betrachtbar, aber nicht durch die erste Person 220 betrachtbar sind. Insbesondere schließt die Anzeige 212, wie in 2C veranschaulicht, den Fußball mit einer niedrigeren Qualität (z. B. geringerer Auflösung) als den angezeigten Basketball ein. Die ersten Anzeigeinhaltsdaten 242 schließen demnach Pixel ein, die den Umrissen der Fünfecke des Fußballs entsprechen, aber keine Pixel in den Fünfecken einschließen. Andererseits schließen die zweiten Anzeigeinhaltsdaten 240 Pixel ein, die der Gesamtheit des Basketballs entsprechen, einschließlich Umrisslinien und Innenabschnitten. Durch das Anzeigen eines Fußballs mit niedrigerer Auflösung reduziert die elektronische Vorrichtung 210 die Nutzung von Verarbeitungs- (z. B. Rendering-) und/oder Anzeigenressourcen.
  • In einigen Implementierungen generiert die elektronische Vorrichtung 210 über ein Rendering-System die ersten Anzeigeinhaltsdaten 242 und zweiten Anzeigeinhaltsdaten 240 basierend auf ersten und zweiten Rendering-Eigenschaften. Beispielsweise bestimmt die elektronische Vorrichtung 210 die erste Rendering-Eigenschaft basierend auf dem ersten Betrachtungswinkel θ1 und der ersten Tiefe 226, und bestimmt die zweite Rendering-Eigenschaft basierend auf dem zweiten Betrachtungswinkel θ2 und der zweiten Tiefe 236. Da die erste Tiefe 226 größer als die zweite Tiefe 236 ist und da der erste Betrachtungswinkel θ1 dem zweiten Betrachtungswinkel θ2 ähnlich ist, bestimmt die elektronische Vorrichtung 210 die erste Rendering-Eigenschaft, die eine niedrigere Bildqualität anzeigt als durch die zweite Rendering-Eigenschaft angezeigt wird. Beispielsweise ist die zweite Person 230 näher an der Anzeige 212 als die erste Person 220, und somit ist eine relativ hohe Bildqualität in Bezug auf die zweiten Anzeigeinhaltsdaten 240 (der zweiten Person 230 zugeordnet) wertvoller als für die ersten Anzeigeinhaltsdaten 242 (der ersten Person 220 zugeordnet). Ein Fußball mit niedrigerer Auflösung ist der elektronischen Vorrichtung 210 zugeordnet, die weniger Verarbeitungsressourcen (z. B. GPU-Ressourcen) und/oder Anzeigenressourcen verwendet.
  • In einigen Implementierungen steuert die elektronische Vorrichtung 210 zusätzlich zu oder anstelle der Änderung der Bildqualität über das Rendering-System die Anzeigequalität über eine Anzeigesteuerung und Anzeigebetriebsparameter. Beispielsweise bestimmt die elektronische Vorrichtung 210 basierend auf den jeweiligen Tiefen und Betrachtungswinkeln der ersten Person 220 und der zweiten Person 230 einen ersten Anzeigebetriebsparameter (der ersten Person 220 zugeordnet) und bestimmt einen zweiten Anzeigebetriebsparameter (der zweiten Person 230 zugeordnet). Da beispielsweise die erste Tiefe 226 größer als die zweite Tiefe 236 ist, bestimmt die elektronische Vorrichtung 210, dass der erste Anzeigebetriebsparameter eine niedrigere Anzeigequalität anzeigt als durch den zweiten Anzeigebetriebsparameter angezeigt wird. Dementsprechend stellt die Anzeigesteuerung basierend auf den ersten und zweiten Anzeigebetriebsparametern ein höheres Beleuchtungsniveau (z. B. Helligkeitsniveau) für Pixel des Basketballs als für Pixel des Fußballballs ein. Der hellere Inhalt kann durch eine Person besser wahrgenommen werden, die sich näher zu der (unteren Tiefe in Bezug auf die) Anzeige 212 befindet.
  • Wie in 2D veranschaulicht, bewegt sich die erste Person 220 näher an die Anzeige 212, wie durch eine erste Bewegungslinie 244 angezeigt. Dementsprechend befindet sich, wie in 2E veranschaulicht, die erste Person 220 nach Abschluss der Bewegung im Betrachtungswinkel θ2 in Bezug auf die Anzeige 212 und in der zweiten Tiefe 236 in Bezug auf die Anzeige 212. Basierend auf der Bewegung ist die erste Augenposition 222 der ersten Person 220 einer dritten LOS 246 in Bezug auf die Anzeige 212 zugeordnet. Da sich die erste Person 220 näher zu der Anzeige 212 bewegt hat, ist die erste Person 220 besser geeignet, um die Anzeigeinhaltsdaten höherer Qualität wahrzunehmen. Dementsprechend ersetzt die elektronische Vorrichtung 210 die Anzeige der ersten Anzeigeinhaltsdaten 242 mit dritten Anzeigeinhaltsdaten 248, wie in 2F veranschaulicht. Zusätzlich zu den Pixeln, die den Umrissen der Fünfecke des Fußballs entsprechen, enthalten die dritten Anzeigedaten 248 demnach auch Pixel, die den inneren Abschnitten der Fünfecke entsprechen (die schwarze Schattierung).
  • Wie in 2G veranschaulicht, beginnt die zweite Person 230 eine nach rechts gerichtete Bewegung zu einem Abschnitt der physischen Umgebung 200, der außerhalb des betrachtbaren Bereichs 214 ist, wie durch eine zweite Bewegungslinie 250 angezeigt. Dementsprechend verfolgt die elektronische Vorrichtung 210, wie in 2H veranschaulicht, während der Bewegung die zweite Augenposition 232 der zweiten Person 230 und bestimmt dementsprechend einen dritten Betrachtungswinkel θ3, der größer ist als der zweite Betrachtungswinkel θ2. Der dritte Betrachtungswinkel θ3 ist einer vierten LOS 252 in Bezug auf die Anzeige 212 zugeordnet. Da der dritte Betrachtungswinkel θ3 größer als der zweite Betrachtungswinkel θ2 ist, reduziert die elektronische Vorrichtung 210 die Auflösung des Basketballs. Wie in 2I veranschaulicht, zeigt die elektronische Vorrichtung 210 demnach, wie in 2I dargestellt, auf dem Display 212 vierte Anzeigeinhaltsdaten 254 an, die den Umrisspixeln des Basketballs entsprechen, aber nicht einschließlich der inneren Pixel des Basketballs. Somit entsprechen die vierten Anzeigeinhaltsdaten 254 im Vergleich zu den zweiten Anzeigeinhaltsdaten 240 einer niedrigeren Auflösungsversion des Basketballs. Ein Basketball mit niedriger Auflösung ist der elektronischen Vorrichtung 210 zugeordnet, wobei die Nutzung der Verarbeitungs- (z. B. Generieren des Basketballs) und/oder der Anzeigeressourcen reduziert wird.
  • Wie in 2J veranschaulicht, hat sich die zweite Person 230 weiter nach rechts in der physischen Umgebung 200 bewegt. Dementsprechend bestimmt die elektronische Vorrichtung 210 einen vierten Betrachtungswinkel θ4, der größer als der dritte Betrachtungswinkel θ3 ist. Der vierte Betrachtungswinkel θ4 ist einer fünften LOS 256 in Bezug auf die Anzeige 212 zugeordnet. Da der vierte Betrachtungswinkel θ4 größer als der dritte Betrachtungswinkel θ3 ist, reduziert die elektronische Vorrichtung 210 weiter die Auflösung des Basketballs. Wie in 2K veranschaulicht, zeigt die elektronische Vorrichtung 210 demnach, wie in 2K veranschaulicht, auf der Anzeige 212, fünfte Anzeigeinhaltsdaten 258 an, die einer Teilmenge der Umrisspixel des Basketballs entsprechen. Die Teilmenge der Umrisspixel des Basketballs wird durch gestrichelte Linien des Basketballs angezeigt, im Gegensatz zu dem Umriss in ganzen Linien der vierten Anzeigeinhaltsdaten 254. Somit entsprechen die fünften Anzeigeinhaltsdaten 258 einer niedrigeren Auflösung des Basketballs im Vergleich zu den vierten Anzeigeinhaltsdaten 254. Ein Basketball mit niedriger Auflösung ist der elektronischen Vorrichtung 210 zugeordnet, wobei die Nutzung der Verarbeitungs- (z. B. Generieren des Basketballs) und/oder der Anzeigeressourcen reduziert wird.
  • Wie in 2L veranschaulicht, vervollständigt die zweite Person 230 die nach rechts gerichtete Bewegung und befindet sich außerhalb des betrachtbaren Bereichs 214. In einigen Implementierungen kann die elektronische Vorrichtung 210 bestimmen, dass die zweite Augenposition 232 der zweiten Person 230 aufhört, sich in dem betrachtbaren Bereich 214 zu befinden. Beispielsweise führt die elektronische Vorrichtung 210 eine semantische Segmentierung in Bezug auf Bilddaten durch, die ungefähr dem Ansichtsbereich 214 zugeordnet sind, und bestimmt, dass die Bilddaten nicht länger eine Darstellung der zweiten Augenposition 232 der zweiten Person 230 einschließen. Somit kann die elektronische Vorrichtung 210 das Generieren von Anzeigeinhaltsdaten beenden, die dem Basketball entsprechen (z. B. die zweiten, vierten und fünften Anzeigeinhaltsdaten 240, 254 bzw. 258), wie in 2M veranschaulicht. Dementsprechend reduziert die elektronische Vorrichtung 210 weiter die Ressourcennutzung, indem sie keine Anzeige von Anzeigeinhaltsdaten, die dem Basketball entsprechen, generiert und/oder betreibt.
  • Wie in 2N veranschaulicht, bewegt sich die zweite Person 230 in eine andere Position in dem betrachtbaren Bereich 214, wie durch eine dritte Bewegungslinie 260 angezeigt. Dementsprechend bestimmt die elektronische Vorrichtung 210 basierend auf der Bewegung, dass die zweite Person 230 in einer dritten Tiefe 262 positioniert ist, die größer als die zweite Tiefe 236 ist, wie in 2O veranschaulicht. Darüber hinaus bestimmt die elektronische Vorrichtung 210, dass die zweite Person 230 dem zweiten Betrachtungswinkel θ2 zugeordnet ist, der ebenfalls der ersten Person 220 zugeordnet ist. Mit anderen Worten befindet sich die zweite Person 230 in der physischen Umgebung 200 direkt hinter der ersten Person 220. Zusätzlich ist basierend auf der Bewegung die zweite Augenposition 232 der zweiten Person 230 einer sechsten LOS 264 in Bezug auf die Anzeige 212 zugeordnet. Basierend auf dem Bestimmen, dass die erste Person 220 und die zweite Person 230 dem gleichen zweiten Betrachtungswinkel θ2 zugeordnet sind, hält die elektronische Vorrichtung 210 die Anzeige der dritten Anzeigeinhaltsdaten 248 (der Fußball) aufrecht, wie in 2P veranschaulicht. Die dritten Anzeigeinhaltsdaten 248 sind durch die erste Person 220 über die dritte LOS 246 betrachtbar und werden durch die zweite Person 230 über die sechste LOS 264 betrachtbar. Durch Verzicht auf die Generierung und Anzeige eines Basketballs in dieser Situation spart die elektronische Vorrichtung 210 Verarbeitungs- und Anzeigeressourcen.
  • 3 ist ein Beispiel eines ersten Systems 300, das Anzeigeinhaltsdaten basierend auf Rendering-Eigenschaften gemäß einigen Implementierungen generiert. Gemäß verschiedenen Implementierungen ist das erste System 300 oder Abschnitte davon in eine elektronische Vorrichtung integriert, wie die unter Bezugnahme auf 2A bis 2P beschriebene elektronische Vorrichtung 210.
  • In einigen Implementierungen schließt das erste System 300 einen oder mehrere Umgebungssensoren 310 ein, die verschiedene Merkmale einer physischen Umgebung 302 erfassen (z. B. die physische Umgebung 200 von den 2A bis 2P). Jeder der einen oder mehreren Umgebungssensoren 310 gibt einen entsprechenden Abschnitt von Umgebungsdaten 318 aus. Beispielsweise schließen die Umgebungsdaten 318 eine Kombination von Bilddaten von einem Bildsensor 312, Tiefendaten von einem Tiefensensor 314 und Umgebungslichtdaten von einem Umgebungslichtsensor 316 ein.
  • Gemäß verschiedenen Implementierungen schließt das erste System 300 einen Verfolger 320 ein. Der Verfolger 320 bestimmt eine Vielzahl von Positionswerten 322 (hierin manchmal als „Positionsinformationen“ bezeichnet), die jeweils eine Vielzahl von Personen, die in der physischen Umgebung 302 positioniert sind, basierend auf den Umgebungsdaten 318 kennzeichnen. Beispielsweise schließen die Vielzahl von Positionswerten 322 eine Kombination von Betrachtungswinkeln und/oder Tiefen ein, wie sie unter Bezugnahme auf die 2A bis 2P beschrieben ist. Das erste System 300 kann eine Computervisionstechnik durchführen, optional mit Hilfe eines neuronalen Netzes, um die Vielzahl von Positionswerten 322 zu bestimmen. In einigen Implementierungen verwendet der Verfolger 320 Positionssensordaten 332 von einem Positionssensor 330, um die Vielzahl von Positionswerten 322 zu bestimmen. Die Positionssensordaten 332 können eine Positionsänderung des ersten Systems 300 anzeigen. Beispielsweise schließt der Positionssensor 330 eine IMU ein, die verschiedene Positionsdaten und Orientierungsdaten ausgibt, die Bewegung des ersten Systems 300 kennzeichnen.
  • In einigen Implementierungen schließt das erste System 300 einen Beteiligungswertgenerator 350 ein. Der Beteiligungswertgenerator 350 bestimmt eine Vielzahl von Beteiligungswerten 358, die jeweils einer Vielzahl von Personen zugeordnet sind, basierend auf den mehreren Positionswerten 322. Ein bestimmter der Vielzahl von Beteiligungswerten 358 kennzeichnet ein Beteiligungsniveau zwischen einer entsprechenden Person und der Anzeige 212. Beispielsweise schließt in einigen Implementierungen der Beteiligungswert 350 einen Augenverfolger 352 ein, der eine Eigenschaft eines Auges der entsprechenden Person bestimmt. Die Eigenschaft des Auges kann angeben, ob das Auge offen oder geschlossen ist (z. B. einen höheren Beteiligungswert für ein offenes Auge), einen Blick des Auges (z. B. einen höheren Beteiligungswert, wenn der Blick des Auges in Richtung der Anzeige 212 geht) und/oder dergleichen. Als weiteres Beispiel schließt in einigen Implementierungen der Beteiligungswert 350 einen Bewegungsverfolger 354 ein, der Bewegungseigenschaften bestimmt, die Personen zugeordnet sind. Eine bestimmte Bewegungseigenschaft kann eine Bewegungsrichtung (z. B. einen höheren Beteiligungswert für eine Bewegung in Richtung der Anzeige 212), einen Gestentyp (z. B. einen höheren Beteiligungswert für das Winken hin zur Anzeige 212) und/oder dergleichen angeben. Als noch ein weiteres Beispiel schließt in einigen Implementierungen der Beteiligungswert 350 einen Haltungsverfolger 356 ein, der Haltungseigenschaften bestimmt, die Personen zugeordnet sind. Eine bestimmte Haltungseigenschaft kann angeben, ob ein Kopf oder Körper einer Person der Anzeige 212 zugewandt (höherer Beteiligungswert) oder von der Anzeige 212 abgewandt (niedrigere Beteiligungswert) ist.
  • Das erste System 300 schließt einen Rendering-Eigenschaftsgenerator 340 ein, der eine Vielzahl von Rendering-Eigenschaften 346 basierend auf den mehreren Positionswerten 322 bestimmt. In einigen Implementierungen zeigt die Vielzahl von Rendering-Eigenschaften 346 eine Vielzahl von Auflösungswerten an, die jeweils der Vielzahl von Betrachtungswinkeln zugeordnet sind. Zu diesem Zweck schließt in einigen Implementierungen der Rendering-Eigenschaftsgenerator 340 einen Auflösungsauswähler 342 ein, der die Vielzahl von Auflösungswerten bestimmt. Wenn beispielsweise ein bestimmter der Positionswerte 322 eine relativ hohe Tiefe oder einen relativ hohen Betrachtungswinkel angibt, bestimmt der Auflösungsauswähler 342 einen relativ niedrigen Auflösungswert. Als ein Beispiel bestimmt der Auflösungsauswähler 342 unter Bezugnahme auf die 2A bis 2C einen ersten Auflösungswert, der der ersten Person 220 zugeordnet ist basierend auf einer Kombination des ersten Betrachtungswinkels θ1 und der ersten Tiefe 226, und bestimmt einen zweiten Auflösungswert, der der zweiten Person 230 zugeordnet ist basierend auf einer Kombination des zweiten Betrachtungswinkels θ2 und der zweiten Tiefe 236. Der erste Auflösungswert ist niedriger als der zweite Auflösungswert, da die erste Tiefe 226 größer als die zweite Tiefe 236 ist. Dementsprechend generiert Bezug nehmend auf 3 ein Rendering-System 349 (z. B. eine GPU) einen ersten Abschnitt von Anzeigeinhaltsdaten 360 (der dem ersten Betrachtungswinkel θ1 zugeordnet ist), der eine niedrigere Auflösung aufweist als ein zweiter Abschnitt der Anzeigeinhaltsdaten 360 (der dem zweiten Betrachtungswinkel θ2 zugeordnet ist). Beispielsweise rendert das Rendering-System 349 ein erstes Objekt und ein zweites Objekt (z. B. abgerufen von einem Objektdatenspeicher 348), um jeweils den ersten und zweiten Abschnitt der Anzeigeinhaltsdaten 360 zu generieren. In einigen Implementierungen sendet das erste System 300 an die Anzeige 212 den ersten und zweiten Abschnitt der Anzeigeinhaltsdaten 360, wie in 2C veranschaulicht.
  • In einigen Implementierungen zeigt die Vielzahl von Rendering-Eigenschaften 346 eine Vielzahl von Rendering-Frequenzen an, die jeweils der Vielzahl von Personen zugeordnet sind. Zu diesem Zweck kann das erste System 300 einen Frequenzauswähler 344 einschließen, der die Vielzahl von Rendering-Frequenzen bestimmt. Das Rendering-System 349 kann einen entsprechenden Abschnitt der Anzeigeinhaltsdaten 360 an einer entsprechenden der Vielzahl von Rendering-Frequenzen generieren. Beispielsweise bestimmt der Frequenzauswähler 344 unter Bezugnahme auf die 2J und 2K eine erste Rendering-Frequenz, die der ersten Person 220 zugeordnet ist, und bestimmt eine zweite Rendering-Frequenz, die der zweiten Person 230 zugeordnet ist. Da der zweite Betrachtungswinkel θ2, der der ersten Person 220 zugeordnet ist, kleiner ist als der vierte Betrachtungswinkel θ4, der der zweiten Person 230 zugeordnet ist, ist die erste Rendering-Frequenz höher als die zweite Rendering-Frequenz. Dementsprechend generiert das Rendering-System 349 unter Bezugnahme auf 3 einen ersten Abschnitt der Anzeigeinhaltsdaten 360 (die dem zweiten Betrachtungswinkel θ2 zugeordnet sind) mit einer höheren Rate (z. B. generiert es mehr Bildrahmen pro Sekunde) als eine Rate, die dem Generieren eines zweiten Abschnitts der Anzeigeinhaltsdaten 360 (die dem vierten Betrachtungswinkel θ4 zugeordnet sind) zugeordnet sind.
  • In einigen Implementierungen bestimmt der Rendering-Eigenschaftsgenerator 340 die Vielzahl von Rendering-Eigenschaften 346 ferner basierend auf den mehreren Beteiligungswerten 358. Beispielsweise bestimmt der Beteiligungswertgenerator 350 unter Bezugnahme auf die 2G bis 2M einen abnehmenden Beteiligungswert, der der zweiten Person 230 zugeordnet ist, basierend auf einer bestimmten Bewegungseigenschaft.
  • Wenn sich demnach die zweite Person 230 nach rechts bewegt, identifiziert der Beteiligungswertgenerator 350 einen zunehmenden Betrachtungswinkel zwischen der zweiten Person 230 und der Anzeige 212 und verringert dementsprechend den Beteiligungswert. Basierend auf dem abnehmenden Beteiligungswert reduziert der Rendering-Eigenschaftsgenerator 340 eine Rendering-Eigenschaft, die der zweiten Person 230 zugeordnet ist. Somit generiert das Rendering-System 349, wenn sich die zweite Person 230 in der physischen Umgebung 200 bewegt, entsprechende Inhaltsanzeigedaten (die von der zweiten Person 230 betrachtbar sind), die eine abnehmende Auflösung und/oder eine abnehmende Rendering-Frequenz aufweisen, basierend auf der abnehmenden Rendering-Eigenschaft.
  • 4 ist ein Beispiel eines zweiten Systems 400, das die Anzeige 212 basierend auf Anzeigebetriebsparametern gemäß einigen Implementierungen steuert. Gemäß verschiedenen Implementierungen ist das zweite System 400 oder sind Abschnitte davon in eine elektronische Vorrichtung integriert, wie die unter Bezugnahme auf 2A bis 2P beschriebene elektronische Vorrichtung 210. In einigen Implementierungen schließt das zweite System 400 verschiedene Komponenten des ersten Systems 300 ein.
  • Das zweite System 400 schließt einen Anzeigebetriebsparametergenerator 410 ein, der eine Vielzahl von Anzeigebetriebsparametern 416 zumindest teilweise basierend auf der Vielzahl der Positionswerte 322 bestimmt. Jeder der Vielzahl von Anzeigebetriebsparametern 416 ist einer entsprechenden Person zugeordnet. Darüber hinaus kann jeder der Vielzahl von Anzeigebetriebsparametern 416 eine Anzeigequalität anzeigen, die einem entsprechenden Abschnitt von Anzeigeinhaltsdaten 420 zugeordnet ist, die auf der Anzeige 212 angezeigt werden. In einigen Implementierungen weist ein bestimmter der Vielzahl von Anzeigebetriebsparametern 416 eine inverse Beziehung in Bezug auf einen entsprechenden der Vielzahl der Positionswerte 322 auf.
  • Basierend auf der Vielzahl von Anzeigebetriebsparametern 416 steuert eine Anzeigesteuerung 430 entsprechende Abschnitte der Anzeigeinhaltsdaten 420 (z. B. treibt diese an) auf der Anzeige 212. In einigen Implementierungen werden die Anzeigeinhaltsdaten 420 von einem Rendering-System empfangen, das die Anzeigeinhaltsdaten 420 basierend auf einer Vielzahl von Rendering-Eigenschaften generiert, wie dem Rendering-System 349, das unter Bezugnahme auf 3 beschrieben ist. In einigen Implementierungen werden die Anzeigeinhaltsdaten 420 unabhängig von Rendering-Eigenschaften generiert.
  • In einigen Implementierungen zeigt ein bestimmter der Vielzahl von Anzeigebetriebsparametern 416 ein Pixelbeleuchtungsniveau an, das einem entsprechenden Abschnitt der Anzeigeinhaltsdaten 420 zugeordnet ist. Zu diesem Zweck schließt in einigen Implementierungen der Anzeigebetriebsparametergenerator 410 einen Beleuchtungsniveauauswähler 412 ein, der verschiedene Pixelbeleuchtungsniveaus basierend auf den mehreren Positionswerten 322 bestimmt. Beispielsweise bestimmt der Beleuchtungsniveauauswähler 412 unter Bezugnahme auf 2B ein erstes Pixelbeleuchtungsniveau, das einem ersten Abschnitt der Anzeigeinhaltsdaten 420 (durch die erste Person 220 betrachtbar) zugeordnet ist, und bestimmt ein zweites Pixelbeleuchtungsniveau, das einem zweiten Abschnitt der Anzeigeinhaltsdaten 420 (durch die zweite Person 230 betrachtbar) zugeordnet ist. In Fortsetzung dieses Beispiels ist das erste Pixelbeleuchtungsniveau kleiner als das zweite Pixelbeleuchtungsniveau, da die erste Tiefe 226 größer als die zweite Tiefe 236 ist. Dementsprechend treibt die Anzeigesteuerung 430 Pixel der Anzeige 212 an, um den ersten Abschnitt der Anzeigeinhaltsdaten 420 gedimmt (z. B. weniger hell) als die Anzeige des zweiten Abschnitts der Anzeigeinhaltsdaten 420 anzuzeigen. Die zweite Person 230 kann eine hellere Anzeige besser wahrnehmen, da die zweite Person 230 sich näher an der Anzeige 212 befindet. Das zweite System 400 reduziert daher die Anzeigeressourcen (z. B. Leistungsverbrauch), indem der erste Abschnitt der Anzeigeinhaltsdaten 420 auf einem relativ niedrigen Helligkeitsniveau angezeigt wird. In einigen Implementierungen stellt der Beleuchtungsniveauauswähler 412 bestimmte Pixel der Anzeige 212 auf ein nominales Beleuchtungsniveau ein, um weiter Anzeigeressourcen zu sparen. Beispielsweise schaltet in 2K die Anzeigesteuerung 430 bestimmte Pixel der Anzeige 212 aus, sodass die Umrisse des Basketballs gepunktete Linien sind, anstatt die festen Linien (die zusätzliche Pixel aufweisen) der Umrisse des in 2I veranschaulichten Basketballs.
  • In einigen Implementierungen zeigt ein bestimmter der Vielzahl von Anzeigebetriebsparametern 416 eine Anzeigerahmenrate (z. B. Frames pro Sekunde (FPS) an), die einem entsprechenden Abschnitt der Anzeigeinhaltsdaten 420 zugeordnet ist. Zu diesem Zweck schließt in einigen Implementierungen der Anzeigebetriebsparametergenerator 410 einen Anzeigerahmenratenauswähler 414 ein, der verschiedene Anzeigerahmenraten basierend auf den mehreren Positionswerten 322 bestimmt. Beispielsweise bestimmt der Anzeigerahmenratenauswähler 414 unter Bezugnahme auf 2J eine erste Anzeigerahmenrate, die einem ersten Abschnitt der Anzeigeinhaltsdaten 420 (durch die erste Person 220 betrachtbar) zugeordnet ist, und bestimmt eine zweite Anzeigerahmenrate, die einem zweiten Abschnitt der Anzeigeinhaltsdaten 420 (durch die zweite Person 230 betrachtbar) zugeordnet ist. In Fortsetzung dieses Beispiels ist die erste Anzeigerahmenrate höher als die zweite Anzeigerahmenrate, da der zweite Betrachtungswinkel θ2 (zwischen der ersten Person 220 und der Anzeige 212) kleiner ist als der vierte Betrachtungswinkel θ4 (zwischen der zweiten Person 230 und der Anzeige 212). Dementsprechend treibt die Anzeigesteuerung 430 die Anzeige 212 so an, dass sie den ersten Abschnitt der Anzeigeinhaltsdaten 420 mit höherer Anzeigerahmenrate (z. B. höherer FPS) als die Anzeige des zweiten Abschnitts der Anzeigeinhaltsdaten 420 anzeigt. Die erste Person 220 kann eine höhere Anzeigerahmenrate besser wahrnehmen, da sich die erste Person 220 näher an der Mitte des betrachtbaren Bereichs 214 befindet. Das zweite System 400 reduziert daher die Anzeigeressourcen (z. B. den Stromverbrauch) durch Anzeigen des zweiten Abschnitts der Anzeigeinhaltsdaten 420 mit einer relativ niedrigen Anzeigerahmenrate.
  • In einigen Implementierungen bestimmt der Anzeigebetriebsparametergenerator 410 die Vielzahl von Anzeigebetriebsparametern 416 weiter basierend auf den mehreren Beteiligungswerten 358. Zu diesem Zweck schließt in einigen Implementierungen das zweite System 400 den mit Bezug auf 3 beschriebenen Beteiligungswertgenerator 350 ein. Beispielsweise basiert ein erster Beteiligungswert auf einer ersten Person, die zu der Anzeige 212 hingeht, während ein zweiter Beteiligungswert auf einer zweiten Person basiert, die von der Anzeige 212 weggeht. Die zweite Person geht von der Anzeige 212 weg und ist somit in Bezug auf die Anzeige 212 weniger beteiligt. Dementsprechend ist der zweite Beteiligungswert niedriger als der erste Beteiligungswert. Der Anzeigebetriebsparametergenerator 410 kann einen ersten Anzeigebetriebsparameter bestimmen, der proportional zum ersten Beteiligungswert ist, und kann einen zweiten Anzeigebetriebsparameter bestimmen, der proportional zu dem zweiten Beteiligungswert ist. Dementsprechend gibt der erste Anzeigebetriebsparameter eine höhere Anzeigequalität an als der zweite Anzeigebetriebsparameter angibt. Basierend auf dem ersten und dem zweiten Anzeigebetriebsparameter treibt die Anzeigesteuerung 430 die Anzeige 212 so an, dass die Pixelhelligkeit und/oder die Anzeigerahmenrate, die einem ersten Abschnitt der Anzeigeinhaltsdaten 420 (durch die erste Person betrachtbar) zugeordnet sind, größer sind als die Pixelhelligkeit und/oder die Anzeigerahmenrate, die einem zweiten Abschnitt der Anzeigeinhaltsdaten 420 (durch die zweite Person betrachtbar) zugeordnet sind.
  • 5 ist ein Beispiel eines Flussdiagramms eines Verfahrens 500 zum Generieren von Anzeigeinhaltsdaten basierend auf jeweiligen Positionen von Personen in Bezug auf eine Anzeige gemäß einigen Implementierungen. In verschiedenen Implementierungen werden das Verfahren 500 oder Teile davon durch eine elektronische Vorrichtung durchgeführt, die eine Anzeige (z. B. die elektronische Vorrichtung 210) einschließt. In verschiedenen Implementierungen werden das Verfahren 500 oder Abschnitte davon durch ein erstes System 300 durchgeführt. In verschiedenen Implementierungen werden das Verfahren 500 oder Teile davon von einer mobilen Vorrichtung, wie einem Smartphone, Tablet oder einer tragbaren Vorrichtung, durchgeführt. In einigen Implementierungen wird das Verfahren 500 durch Verarbeitungslogik, einschließlich Hardware, Firmware, Software oder einer Kombination davon, durchgeführt. In einigen Implementierungen wird das Verfahren 500 durch einen Prozessor durchgeführt, der einen Code ausführt, der in einem nicht-transistorischen computerlesbaren Medium (z. B. einem Speicher) gespeichert ist.
  • Wie durch Block 502 dargestellt, schließt das Verfahren 500 in einigen Implementierungen das Erhalten von Umgebungsdaten von einem Umgebungssensor ein. Beispielsweise schließen unter Bezugnahme auf 3 die Umgebungsdaten 318 eine Kombination von Bilddaten von dem Bildsensor 312, Tiefendaten von dem Tiefensensor 314 und Umgebungslichtdaten von dem Umgebungslichtsensor 316 ein.
  • Wie durch Block 504 dargestellt, schließt das Verfahren 500 das Bestimmen einer ersten Rendering-Eigenschaft basierend auf einem ersten Betrachtungswinkel einer ersten Person in Bezug auf die Anzeige und das Bestimmen einer zweiten Rendering-Eigenschaft basierend auf einem zweiten Betrachtungswinkel einer zweiten Person in Bezug auf die Anzeige ein. Zu diesem Zweck schließt das Verfahren 500 in einigen Implementierungen das Bestimmen des ersten Betrachtungswinkels basierend auf einem ersten Abschnitt der Umgebungsdaten, die der ersten Person zugeordnet sind, und das Bestimmen des zweiten Betrachtungswinkels basierend auf einem zweiten Abschnitt der Umgebungsdaten, die der zweiten Person zugeordnet sind, ein. Beispielsweise schließt unter Bezugnahme auf 2B die elektronische Vorrichtung 210 einen Bildsensor ein, der die erste Person 220 und die zweite Person 230 erfasst und entsprechende Bilddaten ausgibt. In Fortsetzung dieses Beispiels führt die elektronische Vorrichtung 210 eine Computervisionstechnik in Bezug auf die entsprechenden Bilddaten durch, um den ersten und den zweiten Betrachtungswinkel (θ1 und θ2) zu bestimmen.
  • Eine bestimmte Rendering-Eigenschaft kann eine Bildqualität (z. B. einen Auflösungswert) und/oder eine Rendering-Frequenz angeben, die einem Rendering-System zugeordnet ist, das entsprechende Anzeigeinhaltsdaten generiert. In einigen Implementierungen weist die erste Rendering-Eigenschaft eine inverse Beziehung in Bezug auf den ersten Betrachtungswinkel auf, und die zweite Rendering-Eigenschaft weist eine inverse Beziehung in Bezug auf den zweiten Betrachtungswinkel auf. Beispielsweise bestimmt die elektronische Vorrichtung 210 unter Bezugnahme auf 2H eine erste Rendering-Eigenschaft (die der ersten Person 220 zugeordnet ist), die größer als eine bestimmte zweite Rendering-Eigenschaft (die der zweiten Person 230 zugeordnet) ist, da die erste Person 220 einem zweiten Betrachtungswinkel θ2 zugeordnet ist, der kleiner ist als der dritte Betrachtungswinkel θ3, der der zweiten Person 230 zugeordnet ist.
  • Wie durch Block 506 dargestellt, gibt in einigen Implementierungen die erste Rendering-Eigenschaft einen ersten Auflösungswert an, und die zweite Rendering-Eigenschaft gibt einen zweiten Auflösungswert an, der sich von dem ersten Auflösungswert unterscheidet. Wie unter Bezugnahme auf Block 514 beschrieben, kann das Verfahren 500 das Generieren von ersten und zweiten Anzeigeinhaltsdaten einschließen, die jeweils dem ersten und dem zweiten Auflösungswert zugeordnet sind. Beispielsweise schließen die ersten Anzeigeinhaltsdaten eine erste Vielzahl von Bildern ein, die durch den ersten Auflösungswert gekennzeichnet sind, und die zweiten Anzeigeinhaltsdaten schließen eine zweite Vielzahl von Bildern ein, die durch den zweiten Auflösungswert gekennzeichnet sind.
  • Wie durch Block 508 dargestellt, gibt in einigen Implementierungen die erste Rendering-Eigenschaft eine erste Rendering-Frequenz an und die zweite Rendering-Eigenschaft gibt eine zweite Rendering-Frequenz an, die sich von der ersten Rendering-Frequenz unterscheidet. Beispielsweise generiert das Rendering-System 349 unter Bezugnahme auf 3, basierend auf einer ersten Rendering-Frequenz, M Bildrahmen pro Sekunde, um einen ersten Abschnitt der Anzeigeinhaltsdaten 360 (die von einer ersten Person betrachtet werden können) zu generieren. In Fortsetzung dieses Beispiel generiert das Rendering-System 349, basierend auf einer zweiten Rendering-Frequenz, N Bildrahmen pro Sekunde, um einen zweiten Abschnitt der Anzeigeinhaltsdaten 360 (durch eine zweite Person betrachtbar) zu generieren, wobei sich M von N unterscheidet.
  • Wie durch Block 510 dargestellt, schließt das Verfahren 500 in einigen Implementierungen das Bestimmen der ersten Rendering-Eigenschaft ferner basierend auf einer ersten Tiefe und das Bestimmen der zweiten Rendering-Eigenschaft basierend auf einer zweiten Tiefe ein. Die erste Tiefe entspricht einem Abstand zwischen der ersten Person und der Anzeige, und die zweite Tiefe entspricht einem Abstand zwischen der zweiten Person und der Anzeige. Zu diesem Zweck schließt das Verfahren 500 in einigen Implementierungen das Bestimmen der ersten Tiefe basierend auf einem ersten Abschnitt der Umgebungsdaten, die der ersten Person zugeordnet sind, und das Bestimmen der zweiten Tiefe basierend auf einem zweiten Abschnitt der Umgebungsdaten, die der zweiten Person zugeordnet sind, ein. Beispielsweise schließt unter Bezugnahme auf 2B die elektronische Vorrichtung 210 einen Tiefensensor ein, der die erste Tiefe 226 ausgibt, die der ersten Person 220 zugeordnet ist, und die zweite Tiefe 236 ausgibt, die der zweiten Person 230 zugeordnet ist. In einigen Implementierungen weist die erste Rendering-Eigenschaft eine inverse Beziehung in Bezug auf die erste Tiefe auf, und die zweite Rendering-Eigenschaft weist eine inverse Beziehung in Bezug auf die zweite Tiefe auf. Unter Fortsetzung des vorherigen Beispiels bestimmt die elektronische Vorrichtung 210 eine erste Rendering-Eigenschaft (verknüpft mit der ersten Person 220), die niedriger ist als eine zweite Rendering-Eigenschaft (verknüpft mit der zweiten Person 230), da die erste Tiefe 226 größer als die zweite Tiefe 236 ist.
  • Wie durch Block 512 dargestellt, schließt das Verfahren 500 in einigen Implementierungen das Bestimmen der ersten Rendering-Eigenschaft ferner basierend auf einem ersten Beteiligungswert und das Bestimmen der zweiten Rendering-Eigenschaft ferner basierend auf einem zweiten Beteiligungswert ein. Beispielsweise basiert das erste Beteiligungsniveau auf einer Bewegungseigenschaft, die der ersten Person zugeordnet ist, und das zweite Beteiligungsniveau basiert auf einer Bewegungseigenschaft, die der zweiten Person zugeordnet ist. Als weiteres Beispiel basiert das erste Beteiligungsniveau auf einer Haltungseigenschaft, die der ersten Person zugeordnet ist, und das zweite Beteiligungsniveau basiert auf einer Haltungseigenschaft, die der zweiten Person zugeordnet ist. Als noch ein weiteres Beispiel basiert das erste Beteiligungsniveau auf einer Eigenschaft eines Auges der ersten Person, und wobei das zweite Beteiligungsniveau auf einer Eigenschaft eines Auges der zweiten Person basiert. Verschiedene Beispiele für die Verwendung von Beteiligungswerten werden unter Bezugnahme auf den in 3 veranschaulichten Beteiligungswertgenerator 350 beschrieben.
  • Wie durch Block 514 dargestellt, schließt das Verfahren 500 das Generieren erster Anzeigeinhaltsdaten über ein Rendering-System gemäß der ersten Rendering-Eigenschaft und das Generieren zweiter Anzeigeinhaltsdaten über das Rendering-System gemäß der zweiten Rendering-Eigenschaft ein. Die ersten Anzeigeinhaltsdaten sind dem ersten Betrachtungswinkel zugeordnet. Die zweiten Anzeigeinhaltsdaten sind dem zweiten Betrachtungswinkel zugeordnet. In einigen Implementierungen schließt das Rendering-System eine GPU ein, die erste und zweite Anzeigeinhaltsdaten basierend auf entsprechenden Objekten generiert. Als ein Beispiel generiert unter Bezugnahme auf die 2B und 2C ein Rendering-System der elektronischen Vorrichtung 210 die ersten Anzeigeinhaltsdaten 242 basierend auf einer ersten Rendering-Eigenschaft und generiert die zweiten Anzeigeinhaltsdaten 240 basierend auf einer zweiten Rendering-Eigenschaft, die größer als die erste Rendering-Eigenschaft ist (z. B. hat der Basketball eine höhere Auflösung als der Fußball). Als weiteres Beispiel generiert das Rendering-System 349 unter Bezugnahme auf 3 einen ersten Abschnitt der Anzeigeinhaltsdaten 360 basierend auf einer ersten der Vielzahl von Rendering-Eigenschaften 346 und generiert einen zweiten Abschnitt der Anzeigeinhaltsdaten 360 basierend auf einer zweiten der Vielzahl von Rendering-Eigenschaften 346. In einigen Implementierungen ist das Generieren der ersten Anzeigeinhaltsdaten gemäß der ersten Rendering-Eigenschaft einem ersten Rendering-Ressourcennutzungswert zugeordnet. Darüber hinaus ist das Generieren der zweiten Anzeigeinhaltsdaten gemäß der zweiten Rendering-Eigenschaft einem zweiten Rendering-Ressourcennutzungsswert zugeordnet, der sich von dem ersten Rendering-Ressourcennutzungswert unterscheidet. Beispielsweise generiert das Rendering-System 349 unter Bezugnahme auf 2C und 3 die ersten Anzeigeinhaltsdaten 242 gemäß einem ersten Auflösungswert und generiert die zweiten Anzeigeinhaltsdaten 240 gemäß einem zweiten Auflösungswert. Die Generierung der ersten Anzeigeinhaltsdaten 242 ist einem niedrigeren Ressourcenauslastungswert zugeordnet, da, wie in 2C veranschaulicht, die ersten Anzeigeinhaltsdaten 242 (der Fußball) niedrigeren Auflösungsbilddaten entsprechen als die zweiten Anzeigeinhaltsdaten 240 (der Basketball).
  • Wie durch Block 516 dargestellt, schließt das Verfahren 500 in einigen Implementierungen das Erfassen einer Änderung von dem ersten Betrachtungswinkel zu einem dritten Betrachtungswinkel ein. Wie durch Block 518 dargestellt, kann das Erfassen der Änderung auf einer Kombination der Umgebungsdaten und Positionssensordaten basieren. Beispielsweise erfasst die elektronische Vorrichtung 210 unter Bezugnahme auf die 2H bis 2J eine Änderung von dem dritten Betrachtungswinkel θ3 auf den vierten Betrachtungswinkel θ4 basierend auf den Umgebungsdaten - z. B. führt die elektronische Vorrichtung 210 eine Computervisionstechnik in Bezug auf die Umgebungsdaten durch, um die nach rechts gerichtete Bewegung der zweiten Person 230 zu verfolgen. Als weiteres Beispiel bestimmt eine elektronische Vorrichtung basierend auf Positionssensordaten von einem Positionssensor (z. B. dem Positionssensor 330 in 3) die Änderung des Betrachtungswinkels.
  • Wie durch Block 520 dargestellt, schließt das Verfahren 500 in einigen Implementierungen als Reaktion auf das Erfassen der Änderung das Bestimmen einer dritten Rendering-Eigenschaft basierend auf dem dritten Betrachtungswinkel ein. Beispielsweise reduziert die elektronische Vorrichtung 210 unter Bezugnahme auf die 2H bis 2J basierend auf dem Erfassen der Änderung von dem dritten Betrachtungswinkel θ3 auf den vierten Betrachtungswinkel θ4, die Rendering-Eigenschaft, da die aktualisierte Position der zweiten Person 230 näher an dem Rand des betrachtbaren Bereichs 214 ist. Dementsprechend kann das Verfahren 500, wie durch Block 522 dargestellt, das Beenden der Generierung der ersten Anzeigeinhaltsdaten gemäß der ersten Rendering-Eigenschaft einschließen und kann das Generieren dritter Anzeigeinhalte gemäß der dritten Rendering-Eigenschaft einschließen. Unter Fortsetzung des vorherigen Beispiels generiert die elektronische Vorrichtung 210 basierend auf dem Reduzieren der Rendering-Eigenschaft die fünften Anzeigeinhaltsdaten 258 (veranschaulicht in 2K), die einer niedrigeren Auflösungsversion des Basketballs im Vergleich zu den vierten Anzeigeinhaltsdaten 254 (veranschaulicht in 2I) entsprechen.
  • In einigen Implementierungen schließt das Verfahren 500 das Bestimmen ein, dass die erste Person aufhört, sich in einem betrachtbaren Bereich zu befinden, der der Anzeige zugeordnet ist. Darüber hinaus schließt das Verfahren 500 als Reaktion auf das Bestimmen, dass die erste Person aufhört, sich in dem betrachtbaren Bereich zu befinden, das Beenden des Generierens der ersten Anzeigeinhaltsdaten und das Fortsetzen der Generierung der zweiten Anzeigeinhaltsdaten gemäß der zweiten Rendering-Eigenschaft ein. Unter Bezugnahme auf 2L bestimmt die elektronische Vorrichtung 210, dass sich die zweite Person 230 nicht länger in dem betrachtbaren Bereich 214 befindet. Dementsprechend beendet die elektronische Vorrichtung 210 die Generierung der fünften Anzeigeinhaltsdaten 258 (der Basketball), und somit schließt die in 2M veranschaulichte Anzeige 212 keinen Basketball ein.
  • 6 ist ein Beispiel eines Flussdiagramms eines Verfahrens 600 zum Steuern einer Anzeige basierend auf jeweiligen Positionen von Personen in Bezug auf die Anzeige gemäß einigen Implementierungen. In verschiedenen Implementierungen werden das Verfahren 600 oder Teile davon durch eine elektronische Vorrichtung durchgeführt, die eine Anzeige (z. B. die elektronische Vorrichtung 210) einschließt. In verschiedenen Implementierungen werden das Verfahren 600 oder Abschnitte davon durch ein zweites System 400 durchgeführt. In verschiedenen Implementierungen werden das Verfahren 600 oder Teile davon von einer mobilen Vorrichtung, wie einem Smartphone, Tablet oder einer tragbaren Vorrichtung, durchgeführt. In einigen Implementierungen wird das Verfahren 600 durch Verarbeitungslogik, einschließlich Hardware, Firmware, Software oder einer Kombination davon, durchgeführt. In einigen Implementierungen wird das Verfahren 600 durch einen Prozessor durchgeführt, der einen Code ausführt, der in einem nicht-transistorischen computerlesbaren Medium (z. B. einem Speicher) gespeichert ist.
  • Wie durch Block 602 dargestellt, schließt das Verfahren 600 das Erhalten erster Anzeigeinhaltsdaten ein, die einer ersten Person zugeordnet sind, und das Erhalten zweiter Anzeigeinhaltsdaten, die einer zweiten Person zugeordnet sind. Beispielsweise erhält die Anzeigesteuerung unter Bezugnahme auf 4 einen ersten und einen zweiten Abschnitt der Anzeigeinhaltsdaten 420, wobei der erste Abschnitt einer ersten Person zugeordnet ist, und wobei der zweite Abschnitt einer zweiten Person zugeordnet ist. In einigen Implementierungen werden die ersten und zweiten Anzeigeinhaltsdaten durch ein Rendering-System basierend auf entsprechenden Rendering-Eigenschaften generiert, wie unter Bezugnahme auf Block 514 von 5 beschrieben. In einigen Implementierungen werden die ersten und zweiten Anzeigeinhaltsdaten unabhängig von beliebigen Rendering-Eigenschaften generiert.
  • Wie durch Block 604 dargestellt, schließt das Verfahren 600 in einigen Implementierungen das Erhalten von Umgebungsdaten von einem Umgebungssensor (z. B. dem einen oder den mehreren Umgebungssensoren 310 von 3) ein. Verschiedene Beispiele bezüglich der Umgebungsdaten werden unter Bezugnahme auf Block 502 von 5 bereitgestellt.
  • Wie durch Block 606 dargestellt, schließt das Verfahren 600 das Bestimmen eines ersten Anzeigebetriebsparameters basierend auf einem ersten Betrachtungswinkel der ersten Person in Bezug auf die Anzeige und das Bestimmen eines zweiten Anzeigebetriebsparameters basierend auf einem zweiten Betrachtungswinkel der zweiten Person in Bezug auf die Anzeige ein. Ein bestimmter Anzeigebetriebsparameter kann eine Anzeigequalität angeben, die der Anzeige entsprechender Anzeigeinhaltsdaten zugeordnet ist. Beispielsweise ist ein bestimmter Anzeigebetriebsparameter proportional zur Anzeigequalität. In einigen Implementierungen weist ein bestimmter Anzeigebetriebsparameter eine inverse Beziehung in Bezug auf einen entsprechenden Betrachtungswinkel auf. Vergleicht man beispielsweise das unter Bezugnahme auf die 2H und 2I beschriebene Beispiel mit dem unter Bezugnahme auf die 2J und 2K beschriebenen Beispiel, reduziert die elektronische Vorrichtung 210 entsprechend einen Anzeigebetriebsparameter, der der zweiten Person 230 zugeordnet ist, wenn sich der Betrachtungswinkel, der der zweiten Person 230 zugeordnet ist, erhöht. Somit schließt in 2K die Anzeige 212 einen Basketball mit niedrigerer Qualität als der in 2I angezeigte Basketball ein. Beispielsweise schaltet unter Bezugnahme auf 2K eine Anzeigesteuerung bestimmte Pixel der Anzeige 212 aus, wodurch die Anzeigeressourcen gespart werden.
  • Wie durch Block 608 dargestellt, gibt in einigen Implementierungen der erste Anzeigebetriebsparameter eine erste Anzeigerahmenrate an, und der zweite Anzeigebetriebsparameter gibt eine zweite Anzeigerahmenrate an, die sich von der ersten Anzeigerahmenrate unterscheidet. Beispielsweise gibt eine bestimmte Anzeigerahmenrate einen Rahmen-pro-Sekunde-Wert (FPS-Wert) an. In einigen Implementierungen ist eine bestimmte Anzeigerahmenrate umgekehrt proportional zu einem entsprechenden Betrachtungswinkel. Wenn sich beispielsweise eine Person näher an die Mitte eines betrachtbaren Bereichs bewegt, der einer Anzeige einer elektronischen Vorrichtung zugeordnet ist, erhöht die elektronische Vorrichtung eine entsprechende Anzeigerahmenrate von Anzeigeinhaltsdaten, die von der Person betrachtbar sind.
  • Wie durch Block 610 dargestellt, entspricht in einigen Implementierungen der erste Anzeigebetriebsparameter einem ersten Beleuchtungsniveau, das einer ersten Teilmenge von Pixeln einer Anzeige zugeordnet ist, und der zweite Anzeigebetriebsparameter entspricht einem zweiten Beleuchtungsniveau, das einer zweiten Teilmenge von Pixeln der Anzeige zugeordnet ist. Beispielsweise ist die erste Teilmenge von Pixeln durch die erste Person betrachtbar, und die zweite Teilmenge von Pixeln ist durch die zweite Person betrachtbar. In einigen Implementierungen ist ein bestimmtes Beleuchtungsniveau umgekehrt proportional zu einem entsprechenden Betrachtungswinkel. Wenn sich beispielsweise eine Person von der Mitte eines betrachtbaren Bereichs weg bewegt, der einer Anzeige einer elektronischen Vorrichtung zugeordnet ist, reduziert die elektronische Vorrichtung ein entsprechendes Beleuchtungsniveau von Anzeigeinhaltsdaten, die von der Person betrachtbar sind.
  • Wie durch Block 612 dargestellt, basiert in einigen Implementierungen der erste Anzeigebetriebsparameter ferner auf einer ersten Tiefe der ersten Person in Bezug auf die Anzeige, und der zweite Anzeigebetriebsparameter basiert ferner auf einer zweiten Tiefe der zweiten Person in Bezug auf die Anzeige. Zu diesem Zweck schließt das Verfahren 600 in einigen Implementierungen das Erhalten oder Bestimmen der ersten und zweiten Tiefe ein.
  • Beispielsweise schließt das Verfahren 600 das Erhalten von Tiefendaten aus einem Tiefensensor ein, die erste und die zweite Tiefe angeben. Als weiteres Beispiel schließt das Verfahren 600 das Bestimmen (z. B. über eine Computervisionstechnik) der ersten und zweiten Tiefe basierend auf Bilddaten von einem Bildsensor ein. In einigen Implementierungen weist der erste Anzeigebetriebsparameter eine inverse Beziehung in Bezug auf die erste Tiefe auf, und der zweite Anzeigebetriebsparameter weist eine inverse Beziehung in Bezug auf die zweite Tiefe auf. Beispielsweise erhält die elektronische Vorrichtung 210 unter Bezugnahme auf 2B die erste Tiefe 226, die der ersten Person 220 zugeordnet ist, und erhält die zweite Tiefe 236, die der zweiten Person 230 zugeordnet ist. Die elektronische Vorrichtung 210 bestimmt ferner, dass die erste Tiefe 226 größer als die zweite Tiefe 236 ist, und bestimmt dementsprechend einen ersten Anzeigebetriebsparameter (der der ersten Person 220 zugeordnet ist), der kleiner als ein zweiter Anzeigebetriebsparameter (der der zweiten Person 230 zugeordnet ist) ist. Basierend auf der Differenz zwischen dem ersten und dem zweiten Anzeigebetriebsparameter kann die elektronische Vorrichtung 210 die ersten Anzeigeinhaltsdaten 242 mit einer niedrigeren Anzeigerahmenrate und/oder auf einem niedrigeren Beleuchtungsniveau anzeigen als die Anzeige der zweiten Anzeigeinhaltsdaten 240.
  • Wie durch Block 614 dargestellt, basiert in einigen Implementierungen der erste Anzeigebetriebsparameter ferner auf einem ersten Beteiligungsniveau, das der ersten Person zugeordnet ist, und der zweite Anzeigebetriebsparameter basiert ferner auf einem zweiten Beteiligungsniveau, das der zweiten Person zugeordnet ist. Beispielsweise basiert das erste Beteiligungsniveau auf einer Bewegungseigenschaft, die der ersten Person zugeordnet ist, und das zweite Beteiligungsniveau basiert auf einer Bewegungseigenschaft, die der zweiten Person zugeordnet ist. Als weiteres Beispiel basiert das erste Beteiligungsniveau auf einer Haltungseigenschaft, die der ersten Person zugeordnet ist, und das zweite Beteiligungsniveau basiert auf einer Haltungseigenschaft, die der zweiten Person zugeordnet ist. Als noch ein weiteres Beispiel basiert das erste Beteiligungsniveau auf einer Eigenschaft eines Auges der ersten Person, und wobei das zweite Beteiligungsniveau auf einer Eigenschaft eines Auges der zweiten Person basiert. Verschiedene Beispiele für die Verwendung von Beteiligungswerten werden unter Bezugnahme auf den in 3 veranschaulichten Beteiligungswertgenerator 350 beschrieben.
  • Wie durch Block 616 dargestellt, schließt das Verfahren 600 das Anzeigen der ersten Anzeigeinhaltsdaten gemäß dem ersten Anzeigebetriebsparameter und das Anzeigen der zweiten Anzeigeinhaltsdaten gemäß dem zweiten Anzeigebetriebsparameter ein.
  • Beispielsweise schließt das Verfahren 600 das gleichzeitige Anzeigen der ersten und zweiten Anzeigeinhaltsdaten ein. In einigen Implementierungen ist das Anzeigen der ersten Anzeigeinhaltsdaten gemäß dem ersten Anzeigebetriebsparameter einem ersten Anzeigeressourcennutzungswert zugeordnet, und das Anzeigen der zweiten Anzeigeinhaltsdaten gemäß dem zweiten Anzeigebetriebsparameter ist einem zweiten Anzeigeressourcennutzungswert zugeordnet, der sich von dem ersten Anzeigeressourcennutzungswert unterscheidet. In einigen Implementierungen schließt das Anzeigen der ersten Anzeigeinhaltsdaten gemäß dem ersten Anzeigebetriebsparameter das Anzeigen einer ersten Vielzahl von Bildern mit der ersten Anzeigerate ein, und das Anzeigen der zweiten Anzeigeinhaltsdaten gemäß dem zweiten Anzeigebetriebsparameter schließt das Anzeigen einer zweiten Vielzahl von Bildern mit der zweiten Anzeigerate ein. In einigen Implementierungen kann das Verfahren 600 das Anzeigen von Einzelbildern entsprechender Anzeigeinhaltsdaten gemäß dem FPS-Wert einschließen.
  • In einigen Implementierungen wird das Verfahren 600 an einer elektronischen Vorrichtung durchgeführt, die eine Anzeige, wie eine Lentikularanzeige, einschließt. Darüber hinaus schließt das Verfahren 600 das Anzeigen der ersten Anzeigeinhaltsdaten auf einer ersten Teilmenge von Pixeln der Anzeige und das Anzeigen der zweiten Anzeigeinhaltsdaten auf einer zweiten Teilmenge der Pixel ein. Beispielsweise schließt unter Bezugnahme auf Block 610 das Anzeigen der ersten Anzeigeinhaltsdaten gemäß dem ersten Anzeigebetriebsparameter das Einstellen der ersten Teilmenge der Pixel auf das erste Beleuchtungsniveau ein, und das Anzeigen der zweiten Anzeigeinhaltsdaten gemäß dem zweiten Anzeigebetriebsparameter schließt das Einstellen der zweiten Teilmenge der Pixel auf das zweite Beleuchtungsniveau ein. In einigen Implementierungen schließt das Verfahren 600 als Reaktion auf das Bestimmen, dass die erste Person (ein Teil oder die Gesamtheit von ihr) aufhört, sich in einem betrachtbaren Bereich zu befinden, der der Anzeige zugeordnet ist, das Reduzieren des ersten Beleuchtungsniveaus für einen Abschnitt der ersten Teilmenge der Pixel ein. Das Reduzieren des ersten Beleuchtungsniveaus für den Abschnitt der ersten Teilmenge der Pixel kann das Ausschalten des Abschnitts der ersten Teilmenge der Pixel einschließen. In einigen Implementierungen schließt das Verfahren 600 als Reaktion auf das Bestimmen, dass die erste Person mindestens für eine Schwellenwertzeitspanne beendet, sich in dem betrachtbaren Bereich zu befinden, das Ausschalten der Gesamtheit der ersten Teilmenge der Pixel ein.
  • Wie durch Block 618 dargestellt, schließt das Verfahren 600 in einigen Implementierungen das Erfassen einer Änderung von dem ersten Betrachtungswinkel zu einem dritten Betrachtungswinkel ein. Wie durch Block 620 dargestellt, kann das Erfassen der Änderung auf einer Kombination der Umgebungsdaten und Positionssensordaten basieren. Beispielsweise erfasst die elektronische Vorrichtung 210 unter Bezugnahme auf die 2H bis 2J eine Änderung von dem dritten Betrachtungswinkel θ3 auf den vierten Betrachtungswinkel θ4 basierend auf den Umgebungsdaten - z. B. führt die elektronische Vorrichtung 210 eine Computervisionstechnik in Bezug auf die Umgebungsdaten durch, um die nach rechts gerichtete Bewegung der zweiten Person 230 zu verfolgen. Als weiteres Beispiel bestimmt eine elektronische Vorrichtung basierend auf Positionssensordaten von einem Positionssensor (z. B. dem Positionssensor 330 in 3) die Änderung des Betrachtungswinkels.
  • Wie durch Block 622 dargestellt, schließt das Verfahren 600 in einigen Implementierungen als Reaktion auf das Erfassen der Änderung das Bestimmen eines dritten Anzeigebetriebsparameters basierend auf dem dritten Betrachtungswinkel ein. Beispielsweise reduziert die elektronische Vorrichtung 210 unter Bezugnahme auf die 2H bis 2J basierend auf dem Erfassen der Änderung von dem dritten Betrachtungswinkel θ3 auf den vierten Betrachtungswinkel θ4 den Anzeigebetriebsparameter, da die aktualisierte Position der zweiten Person 230 näher an dem Rand des betrachtbaren Bereichs 214 ist. Dementsprechend kann das Verfahren 600, wie durch Block 624 dargestellt, das Beenden der ersten Anzeigeinhaltsdaten gemäß dem ersten Anzeigebetriebsparameter und das Anzeigen der ersten Anzeigeinhaltsdaten gemäß dem dritten Anzeigebetriebsparameter einschließen.
  • In einigen Implementierungen schließt das Verfahren 600 das Bestimmen ein, dass die erste Person aufhört, sich in einem betrachtbaren Bereich zu befinden, der der Anzeige zugeordnet ist. Darüber hinaus schließt das Verfahren 600 als Reaktion auf das Bestimmen, dass die erste Person aufhört, sich in dem betrachtbaren Bereich zu befinden, das Beenden der Anzeige der ersten Anzeigeinhaltsdaten und das Fortsetzen der Anzeige der zweiten Anzeigeinhaltsdaten gemäß dem zweiten Anzeigebetriebsparameter ein. Beispielsweise bestimmt die elektronische Vorrichtung 210 unter Bezugnahme auf 2L, dass sich die zweite Person 230 außerhalb des betrachtbaren Bereichs 214 bewegt. Dementsprechend beendet die elektronische Vorrichtung zu 210 die Anzeige der fünften Anzeigeinhaltsdaten 258 (der Basketball), wie in 2M veranschaulicht.
  • Die vorliegende Offenbarung beschreibt verschiedene Merkmale, von denen kein einzelnes allein für die hierin beschriebenen Vorteile verantwortlich ist. Es versteht sich, dass verschiedene hierin beschriebene Merkmale kombiniert, modifiziert oder weggelassen werden können, wie es für einen Fachmann ersichtlich ist. Andere Kombinationen und Unterkombinationen als die spezifisch hierin beschriebenen sind für einen Fachmann ersichtlich und sollen einen Teil dieser Offenbarung bilden. Verschiedene Verfahren sind hierin in Verbindung mit verschiedenen Flussdiagrammschritten und/oder -phasen beschrieben. Es versteht sich, dass in vielen Fällen bestimmte Schritte und/oder Phasen derart miteinander kombiniert werden können, dass mehrere Schritte und/oder Phasen, die in den Flussdiagrammen gezeigt sind, in einem einzigen Schritt und/oder einer einzigen Phase durchgeführt werden können. Außerdem können bestimmte Schritte und/oder Phasen in zusätzliche Unterkomponenten unterteilt werden, die separat durchzuführen sind. In einigen Fällen kann die Reihenfolge der Schritte und/oder Phasen neu angeordnet werden und können bestimmte Schritte und/oder Phasen vollständig weggelassen werden. Außerdem sind die hierin beschriebenen Verfahren als offen zu verstehen, sodass auch Schritte und/oder Phasen zusätzlich zu den hierin gezeigten und beschriebenen durchgeführt werden können.
  • Einige oder alle der hierin beschriebenen Verfahren und Aufgaben können durch ein Computersystem durchgeführt und vollständig automatisiert werden. Das Computersystem kann in einigen Fällen mehrere unterschiedliche Computer oder Rechenvorrichtungen (z. B. physische Server, Arbeitsstationen, Speicherarrays usw.) einschließen, die über ein Netzwerk kommunizieren und zusammenarbeiten, um die beschriebenen Funktionen durchzuführen. Jede solche Rechenvorrichtung schließt in der Regel einen Prozessor (oder mehrere Prozessoren) ein, der Programmanweisungen oder Module ausführt, die in einem Speicher oder einem anderen nicht-transitorischen computerlesbaren Speichermedium oder einer anderen Vorrichtung gespeichert sind. Die verschiedenen hierin offenbarten Funktionen können in solchen Programmanweisungen implementiert sein, wenngleich einige oder alle der offenbarten Funktionen alternativ in anwendungsspezifischen Schaltungen (z. B. ASICs oder FPGAs oder GP-GPUs) des Computersystems implementiert sein können. Wenn das Computersystem mehrere Rechenvorrichtungen einschließt, können diese Vorrichtungen gemeinsam angeordnet sein oder nicht gemeinsam angeordnet sein. Die Ergebnisse der offenbarten Verfahren und Aufgaben können dauerhaft gespeichert werden, indem physische Speichervorrichtungen, wie Festkörperspeicherchips und/oder Magnetplatten, in einen anderen Zustand umgewandelt werden.
  • Verschiedene hierin definierte Prozesse ziehen die Möglichkeit in Betracht, persönliche Informationen eines Benutzers zu erhalten und zu nutzen. Zum Beispiel können solche persönlichen Informationen genutzt werden, um einen verbesserten Datenschutzbildschirm auf einer elektronischen Vorrichtung bereitzustellen. Insoweit als solche persönlichen Informationen gesammelt werden, sollten solche Informationen jedoch mit der informationsgestützten Einwilligung des Benutzers erhalten werden. Wie hierin beschrieben, sollte der Benutzer Kenntnis und Kontrolle über die Verwendung seiner persönlichen Informationen haben.
  • Persönliche Informationen werden von geeigneten Parteien nur zu rechtmäßigen und angemessenen Zwecken genutzt. Die Parteien, die solche Informationen nutzen, halten Datenschutzrichtlinien und -praktiken ein, die mindestens geeigneten Gesetzen und Vorschriften entsprechen. Außerdem müssen solche Richtlinien gut etabliert, für Benutzer zugänglich und als mit behördlichen/industriellen Standards übereinstimmend oder über diese hinausgehend anerkannt sein. Darüber hinaus unterlassen diese Parteien die Verbreitung, den Verkauf oder ein anderweitiges Teilen solcher Informationen außerhalb angemessener und rechtmäßiger Zwecke.
  • Benutzer können jedoch den Grad beschränken, in dem solche Parteien auf persönliche Informationen zugreifen oder solche anderweitig erhalten können. Zum Beispiel können Einstellungen oder andere Präferenzen derart angepasst werden, dass Benutzer entscheiden können, ob auf ihre persönlichen Informationen durch verschiedene Entitäten zugegriffen werden kann. Wenngleich einige hierin definierte Merkmale im Zusammenhang mit der Verwendung persönlicher Informationen beschrieben sind, können des Weiteren verschiedene Gesichtspunkte dieser Merkmale implementiert werden, ohne dass solche Informationen verwendet werden müssen. Wenn zum Beispiel Benutzerpräferenzen, Kontonamen und/oder ein Ortsverlauf erfasst werden, können diese Informationen verborgen oder anderweitig verallgemeinert werden, sodass die Informationen den jeweiligen Benutzer nicht identifizieren.
  • Die Offenbarung soll nicht auf die hierin gezeigten Implementierungen beschränkt sein. Verschiedene Modifikationen an den in dieser Offenbarung beschriebenen Implementierungen können für den Fachmann ohne Weiteres ersichtlich sein, und die hierin definierten allgemeinen Prinzipien können auf andere Implementierungen angewendet werden, ohne vom Wesen oder Schutzumfang dieser Offenbarung abzuweichen. Die hierin bereitgestellten Lehren der Erfindung können auf andere Verfahren und Systeme angewendet werden und sind nicht auf die oben beschriebenen Verfahren und Systeme beschränkt, und Elemente und Aktionen der verschiedenen oben beschriebenen Implementierungen können kombiniert werden, um weitere Implementierungen bereitzustellen. Dementsprechend können die hierin beschriebenen neuartigen Verfahren und Systeme in einer Vielfalt anderer Formen implementiert werden; außerdem können verschiedene Weglassungen, Ersetzungen und Änderungen der Form der hierin beschriebenen Verfahren und Systeme vorgenommen werden, ohne vom Wesen der Offenbarung abzuweichen. Die beigefügten Ansprüche und ihre Äquivalente sollen solche Formen oder Modifikationen abdecken, die in den Schutzumfang und Geist der Offenbarung fallen.

Claims (15)

  1. Verfahren, umfassend: auf einer elektronischen Vorrichtung, einschließlich eines oder mehrerer Prozessoren, eines nicht-transitorischen Speichers, eines Rendering-Systems und einer Anzeige: Bestimmen einer ersten Rendering-Eigenschaft basierend auf einem ersten Betrachtungswinkel einer ersten Person in Bezug auf die Anzeige; Bestimmen einer zweiten Rendering-Eigenschaft basierend auf einem zweiten Betrachtungswinkel einer zweiten Person in Bezug auf die Anzeige, wobei sich die erste Rendering-Eigenschaft von der zweiten Rendering-Eigenschaft unterscheidet; und Generieren, über das Rendering-System, erster Anzeigeinhaltsdaten gemäß der ersten Rendering-Eigenschaft und Generieren zweiter Anzeigeinhaltsdaten gemäß der zweiten Rendering-Eigenschaft, wobei die ersten Anzeigeinhaltsdaten dem ersten Betrachtungswinkel zugeordnet sind, und wobei die zweiten Anzeigeinhaltsdaten dem zweiten Betrachtungswinkel zugeordnet sind.
  2. Verfahren nach Anspruch 1, wobei das Generieren der ersten Anzeigeinhaltsdaten gemäß der ersten Rendering-Eigenschaft einem ersten Rendering-Ressourcennutzungswert zugeordnet ist und wobei das Generieren der zweiten Anzeigeinhaltsdaten gemäß der zweiten Rendering-Eigenschaft einem zweiten Rendering-Ressourcennutzungswert zugeordnet ist, der sich von dem ersten Rendering-Ressourcennutzungswert unterscheidet.
  3. Verfahren nach einem der Ansprüche 1 bis 2, wobei die erste Rendering-Eigenschaft einen ersten Auflösungswert angibt und wobei die zweite Rendering-Eigenschaft einen zweiten Auflösungswert angibt, der sich von dem ersten Auflösungswert unterscheidet.
  4. Verfahren nach Anspruch 3, wobei das Generieren der ersten Anzeigeinhaltsdaten gemäß der ersten Rendering-Eigenschaft das Generieren eines ersten Bildes, das dem ersten Auflösungswert zugeordnet ist, einschließt und wobei das Generieren der zweiten Anzeigeinhaltsdaten gemäß der zweiten Rendering-Eigenschaft das Generieren eines zweiten Bildes, das dem zweiten Auflösungswert zugeordnet ist, einschließt.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei die erste Rendering-Eigenschaft eine erste Rendering-Frequenz angibt und wobei die zweite Rendering-Eigenschaft eine zweite Rendering-Frequenz angibt, die sich von der ersten Rendering-Frequenz unterscheidet.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die erste Rendering-Eigenschaft eine inverse Beziehung in Bezug auf den ersten Betrachtungswinkel aufweist und wobei die zweite Rendering-Eigenschaft eine inverse Beziehung in Bezug auf den zweiten Betrachtungswinkel aufweist.
  7. Verfahren nach einem der Ansprüche 1 bis 6, ferner umfassend das Anzeigen der ersten Anzeigeinhaltsdaten und der zweiten Anzeigeinhaltsdaten auf der Anzeige.
  8. Verfahren nach Anspruch 7, wobei die Anzeige eine Lentikularlinse einschließt.
  9. Verfahren nach einem der Ansprüche 1 bis 8, ferner umfassend das Bestimmen einer ersten Tiefe der ersten Person in Bezug auf die Anzeige und das Bestimmen einer zweiten Tiefe der zweiten Person in Bezug auf die Anzeige, wobei das Bestimmen der ersten Rendering-Eigenschaft ferner auf der ersten Tiefe basiert und wobei das Bestimmen der zweiten Rendering-Eigenschaft ferner auf der zweiten Tiefe basiert.
  10. Verfahren nach Anspruch 9, wobei die erste Rendering-Eigenschaft eine inverse Beziehung in Bezug auf die erste Tiefe aufweist und wobei die zweite Rendering-Eigenschaft eine inverse Beziehung in Bezug auf die zweite Tiefe aufweist.
  11. Verfahren nach einem der Ansprüche 1 bis 10, wobei die erste Rendering-Eigenschaft ferner auf einem ersten Beteiligungsniveau basiert, das der ersten Person zugeordnet ist, und wobei die zweite Rendering-Eigenschaft ferner auf einem zweiten Beteiligungsniveau basiert, das der zweiten Person zugeordnet ist.
  12. Verfahren nach Anspruch 11, wobei das erste Beteiligungsniveau auf einer Bewegungseigenschaft basiert, die der ersten Person zugeordnet ist, und wobei das zweite Beteiligungsniveau auf einer Bewegungseigenschaft basiert, die der zweiten Person zugeordnet ist.
  13. Verfahren nach einem der Ansprüche 11 bis 12, wobei das erste Beteiligungsniveau auf einer Haltungseigenschaft basiert, die der ersten Person zugeordnet ist, und wobei das zweite Beteiligungsniveau auf einer Haltungseigenschaft basiert, die der zweiten Person zugeordnet ist.
  14. Erstes System, umfassend: eine Anzeige; einen Rendering-Eigenschaftsgenerator zum: Bestimmen einer ersten Rendering-Eigenschaft basierend auf einem ersten Betrachtungswinkel einer ersten Person in Bezug auf die Anzeige, und Bestimmen einer zweiten Rendering-Eigenschaft basierend auf einem zweiten Betrachtungswinkel einer zweiten Person in Bezug auf die Anzeige, wobei sich die erste Rendering-Eigenschaft von der zweiten Rendering-Eigenschaft unterscheidet; und ein Rendering-System zum Generieren erster Anzeigeinhaltsdaten gemäß der ersten Rendering-Eigenschaft und Generieren zweiter Anzeigeinhaltsdaten gemäß der zweiten Rendering-Eigenschaft zu generieren, wobei die ersten Anzeigeinhaltsdaten dem ersten Betrachtungswinkel zugeordnet sind und wobei die zweiten Anzeigeinhaltsdaten dem zweiten Betrachtungswinkel zugeordnet sind.
  15. Nicht-transitorisches, computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Anweisungen umfassen, die bei Ausführung durch eine elektronische Vorrichtung, einschließlich eines Rendering-Systems und einer Anzeige, die elektronische Vorrichtung veranlassen zum: Bestimmen einer ersten Rendering-Eigenschaft basierend auf einem ersten Betrachtungswinkel einer ersten Person in Bezug auf die Anzeige; Bestimmen einer zweiten Rendering-Eigenschaft basierend auf einem zweiten Betrachtungswinkel einer zweiten Person in Bezug auf die Anzeige, wobei sich die erste Rendering-Eigenschaft von der zweiten Rendering-Eigenschaft unterscheidet; und Generieren, über das Rendering-System, erster Anzeigeinhaltsdaten gemäß der ersten Rendering-Eigenschaft und Generieren, über das Rendering-System, zweiter Anzeigeinhaltsdaten gemäß der zweiten Rendering-Eigenschaft, wobei die ersten Anzeigeinhaltsdaten dem ersten Betrachtungswinkel zugeordnet sind und wobei die zweiten Anzeigeinhaltsdaten dem zweiten Betrachtungswinkel zugeordnet sind.
DE102022206804.1A 2021-08-16 2022-07-04 Generieren und anzeigen von inhalt basierend auf jeweiligen positionen von personen Pending DE102022206804A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202163233465P 2021-08-16 2021-08-16
US63/233,465 2021-08-16

Publications (1)

Publication Number Publication Date
DE102022206804A1 true DE102022206804A1 (de) 2023-02-16

Family

ID=85039874

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022206804.1A Pending DE102022206804A1 (de) 2021-08-16 2022-07-04 Generieren und anzeigen von inhalt basierend auf jeweiligen positionen von personen

Country Status (3)

Country Link
US (1) US20230370578A1 (de)
CN (1) CN115705092A (de)
DE (1) DE102022206804A1 (de)

Also Published As

Publication number Publication date
CN115705092A (zh) 2023-02-17
US20230370578A1 (en) 2023-11-16

Similar Documents

Publication Publication Date Title
DE112020001415T5 (de) Umgebung für Fernkommunikation
US20130154913A1 (en) Systems and methods for a gaze and gesture interface
CN112041788B (zh) 使用眼睛注视来选择文本输入字段
DE112018002775T5 (de) Verfahren und vorrichtung zum erfassen von ebenen und/oder quadtrees zur verwendung als ein virtuelles substrat
DE112020002268T5 (de) Vorrichtung, verfahren und computerlesbares medium zur darstellung von dateien computergenerierter realität
DE102019107549A1 (de) Nachrichtenort basierend auf Körperteilort
US11776503B2 (en) Generating display data based on modified ambient light luminance values
US20210241676A1 (en) Modifying rendered image data based on ambient light from a physical environment
KR102587920B1 (ko) 물리적 환경으로부터의 광 중첩에 기초한 디스플레이 동작 파라미터들의 수정
US11373271B1 (en) Adaptive image warping based on object and distance information
DE112020000573T5 (de) Anzeigen von darstellungen von umgebungen
DE102022117756A1 (de) Anweisen eines virtuellen agenten basierend auf dem blinkverhalten eines benutzers
US11955099B2 (en) Color correction based on perceptual criteria and ambient light chromaticity
CN110968248B (zh) 生成用于视觉触摸检测的指尖的3d模型
DE102020104415A1 (de) Bewegung in einer umgebung
DE102022206804A1 (de) Generieren und anzeigen von inhalt basierend auf jeweiligen positionen von personen
US20230267860A1 (en) Color Correction Pipeline
US11270409B1 (en) Variable-granularity based image warping
DE112020002244T5 (de) Vorrichtung, Verfahren und grafische Benutzerschnittstelle zur Erzeugung von CGR-Objekten
DE102023204954A1 (de) Ändern von modi einer ortsfesten positionierung im zusammenhang mit der anzeige von computergeneriertem inhalt
JP7384951B2 (ja) 遮られた物理的オブジェクトの位置を示すこと
DE102019113133A1 (de) Systeme und verfahren zur beeinflussung von spotlight-effekten_
US11935503B1 (en) Semantic-based image mapping for a display
US11783444B1 (en) Warping an input image based on depth and offset information
US11983810B1 (en) Projection based hair rendering

Legal Events

Date Code Title Description
R012 Request for examination validly filed