DE102016013766A1 - Image compensation for a masking, direct-view augmented reality system - Google Patents

Image compensation for a masking, direct-view augmented reality system Download PDF

Info

Publication number
DE102016013766A1
DE102016013766A1 DE102016013766.5A DE102016013766A DE102016013766A1 DE 102016013766 A1 DE102016013766 A1 DE 102016013766A1 DE 102016013766 A DE102016013766 A DE 102016013766A DE 102016013766 A1 DE102016013766 A1 DE 102016013766A1
Authority
DE
Germany
Prior art keywords
attenuation
graph
emission
real world
display layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016013766.5A
Other languages
German (de)
Inventor
Gavin Stuart Peter Miller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Adobe Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adobe Systems Inc filed Critical Adobe Systems Inc
Publication of DE102016013766A1 publication Critical patent/DE102016013766A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/023Display panel composed of stacked panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Beschrieben wird eine Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System. Bei einer oder mehreren Ausführungsformen beinhaltet eine Erweiterte-Realität-Einrichtung eine Emissionsanzeigeschicht, um einem Auge eines Nutzers Emissionsgrafiken zu präsentieren, und eine Dämpfungsanzeigeschicht, um Dämpfungsgrafiken zwischen der Emissionsanzeigeschicht und einer Realweltszene zu präsentieren, damit Licht der Realweltszene von den Emissionsgrafiken ferngehalten wird. Ein Hellbereichskompensationsmodul ergänzt eine Dämpfungsgrafik auf Grundlage eines Attributes eines Auges eines Betrachters, so beispielsweise einer Größe einer Pupille, um eine erweiterte Dämpfungsgrafik zu produzieren, die zusätzliches Licht fernhält, um einen unbeabsichtigten Hellbereich zu kompensieren. Ein Dunkelbereichskompensationsmodul kaschiert einen unbeabsichtigten Dunkelbereich mit einer Replikgrafik in der Emissionsanzeigeschicht, die das Aussehen der Realweltszene in dem unbeabsichtigten Dunkelbereich reproduziert. Eine Kamera stellt die Lichtdaten bereit, die zum Erzeugen der Replikgrafik verwendet werden.Described is an image compensation for a masking, direct view augmented reality system. In one or more embodiments, an augmented reality device includes an emissions display layer for presenting emission graphics to a user's eye, and an attenuation display layer for presenting attenuation graphics between the emission display layer and a real world scene to keep light of the real world scene away from the emission graphics. A bright area compensation module complements an attenuation graph based on an attribute of an observer's eye, such as a pupil size, to produce an expanded attenuation graph that keeps additional light off to compensate for an unintended bright area. A dark area compensation module conceals an unintended dark area with a replica graphic in the emission display layer that reproduces the appearance of the real world scene in the unintended dark area. A camera provides the light data used to generate the replica artwork.

Description

Hintergrundbackground

Die erweiterte Realität ist zur Bereitstellung von Information, die für die aktuelle Umgebung einer Person wichtig ist, äußerst vielversprechend. Bei der erweiterten Realität werden visuelle Bilder zu einer Szene einer Umgebung, die von einer Person gerade betrachtet wird, hinzugefügt. Die visuellen Bilder sind synthetische grafische Bilder (nachstehend auch als „synthetische Grafiken” bezeichnet), die von einem Computer erzeugt und einer Realweltszene hinzugefügt werden. Eine synthetische Grafik kann beispielsweise auf eine Realweltszene aufgelegt oder dieser überlagert sein. Eine synthetische Grafik kann zudem in die Realweltszene derart eingefügt werden, dass das eingefügte visuelle Bild der synthetischen Grafik im Sichtfeld in einer gewissen Tiefe teilweise hinter einem Realweltobjekt zu sein scheint. Bei einer raffinierteren Einfügung einer synthetischen Grafik kann die synthetische Grafik als in die Realweltszene integriert erscheinen, was stärkeren Realismus oder auch Anmerkungen ermöglicht, die keine wichtigen visuellen Aspekte blockieren, sondern eindeutig angeben, welches sichtbare Objekt kommentiert wird.The augmented reality is extremely promising for providing information that is important to a person's current environment. In augmented reality, visual images are added to a scene of an environment being viewed by a person. The visual images are synthetic graphic images (hereinafter also referred to as "synthetic graphics") generated by a computer and added to a real world scene. For example, a synthetic graphic may be superimposed on or superimposed on a real world scene. In addition, a synthetic graphic can be inserted into the real world scene in such a way that the inserted visual image of the synthetic graphic in the field of vision seems to be partly behind a real world object at a certain depth. With a more sophisticated insertion of a synthetic graphic, the synthetic graphics may appear to be integrated into the real world scene, allowing for greater realism or even annotations that do not block important visual aspects, but clearly indicate which visible object is annotated.

Eine synthetische Grafik kann hilfreich, lustig, unterhaltsam und dergleichen mehr sein. Ein Erweiterte-Realität-System kann beispielsweise Richtungspfeile und textartige Anweisungen über Straßen oder Korridore hinab anzeigen, damit sich eine Person in eine gewünschte Richtung begeben kann. Bei einem weiteren Beispiel werden empfohlene Toleranzen oder detaillierte Einbauanweisungen für ein Kraftfahrzeugbauteil angezeigt, um einen Automechaniker zu unterstützen. Bei wieder einem anderen Beispiel kann ein Erweiterte-Realität-System die Ergebnisse eines geplanten strukturellen Umbaus oder der Aufstellung neuer Möbel in eine Realweltansicht des Inneren eines Gebäudes projizieren. Eine synthetische Grafik kann darüber hinaus zur Unterhaltung verwendet werden, so beispielsweise beim Anzeigen von lustigen Kommentaren oder aktuellen Kommunikationsvorgängen sozialer Medien über den Köpfen von Freunden und Mitarbeitern. Bei einem weiteren Beispiel kann in das Umfeld eines Kindes ein elektronischer „Kumpel” eingesetzt werden, der als Spielgefährte, Tutor oder Lehrer wirkt. Diese erweiterte Realität birgt das Potenzial, viele Lebensbereiche positiv zu beeinflussen, indem die Hinzufügung von synthetischen Grafiken in Realweltszenen ermöglicht wird.Synthetic graphics can be helpful, fun, entertaining, and more. For example, an augmented reality system may display directional arrows and textual instructions down roads or corridors to allow a person to move in a desired direction. In another example, recommended tolerances or detailed installation instructions for a motor vehicle component are displayed to assist a car mechanic. In yet another example, an augmented reality system may project the results of a planned structural retrofit or new furniture set up into a real world view of the interior of a building. Synthetic graphics can also be used for entertainment, such as displaying funny comments or recent social media communications over the minds of friends and employees. In another example, an electronic "buddy" who acts as a playmate, tutor, or teacher may be employed in a child's environment. This augmented reality has the potential to positively impact many areas of life by allowing the addition of synthetic graphics in real world scenes.

Ein Erweiterte-Realität-System kann auf eine Vielzahl von Arten konfiguriert sein. Konfiguriert sein kann ein Erweiterte-Realität-System beispielsweise als Brille, die vor den Augen eines Nutzers angeordnet werden muss, als Schwimm- bzw. Schutzbrille, die die Augen bedeckt, als anderer Typ von kopfmontierter Anzeige, als Anzeigeschirm, als Videoprojektor oder als eine beliebige Kombination hieraus. Diese Systeme beinhalten zudem eine Funktionalität zum Erzeugen der synthetischen Grafik zur visuellen Präsentation in Zusammenwirkung mit der Realweltszene.An augmented reality system can be configured in a variety of ways. For example, an augmented reality system may be configured as eyeglasses that must be placed in front of a user's eyes as swimming goggles that cover the eyes, as another type of head mounted display, as a display screen, as a video projector, or as one any combination of these. These systems also include functionality for creating the synthetic visual presentation graphic in conjunction with the real world scene.

Erweiterte-Realität-Systeme sind typischerweise als einer von zwei Haupttypen aufgebaut, nämlich als Durchschau-Systeme, die eine Direktansicht unterstützen, oder als kameravermittelte Systeme, die eine indirekte Ansicht unterstützen. Bei Systemen vom erstgenannten Typ blickt eine Person durch einen Anzeigebildschirm, der eine synthetische Grafik präsentiert, und kann zudem die hinter dem Anzeigeschirm angeordnete Realweltszene direkt betrachten. Bei Systemen vom letztgenannten Typ blickt eine Person auf einen Anzeigeschirm, um sowohl die synthetische Grafik wie auch die Realweltszene als gemeinsam auf dem Anzeigeschirm präsentiert zu sehen. Bei beiden Typen von Erweiterte-Realität-Systemen geht die Entwicklung dahin, eine synthetische Grafik mit der Realweltszene zusammenzusetzen und so eine zusammengesetzte Ansicht zu schaffen. Nachteiligerweise verhindert eine Anzahl von technischen Hürden die Entwicklung des vollen Potenzials der erweiterten Realität sowohl beim Lösungsansatz mit Direktansicht wie auch beim Lösungsansatz mit Kameravermittlung.Augmented reality systems are typically built as one of two major types, namely, browsing systems that support direct view, or as camera-mediated systems that support indirect viewing. In systems of the former type, a person looks through a display screen presenting a synthetic graphic and can also directly view the real world scene located behind the display screen. In systems of the latter type, a person looks at a display screen to see both the synthetic graphics and the real world scene presented in common on the display screen. For both types of augmented reality systems, the trend is to compose a synthetic graph with the real world scene to create a composite view. Disadvantageously, a number of technical hurdles prevent the development of the full potential of augmented reality in both the direct view approach and the camera switching approach.

Bei einem Erweiterte-Realität-System mit Kameravermittlung ist die Sicht einer Person üblicherweise auf einen einschichtigen Anzeigeschirm begrenzt, der die Welt derart präsentiert, wie sie unter Verwendung einer Kamera aufgenommen wird, wobei der Anzeigeschirm jedoch physisch opak für die Realwelt aus der Perspektive des Auges der den Anzeigeschirm betrachtenden Person ist. Mit anderen Worten, die Sicht der Person ist indirekt, da die Person kein Licht empfängt, das aus der Realwelt stammt. Anstatt dessen ist eine Kamera mit einem Bildsensor in der Realweltszene vorhanden, und es zeigen zwei oder mehr Miniaturanzeigeschirme die Realweltszene durch Zugreifen auf Daten von einem Bildsensor der Kamera. Ein kameravermitteltes Erweiterte-Realität-System ist analog zum Durchschauen eines „Ansichtsfinders” (view finder) eines modernen Camcorders, bei dem ein LCD-Schirm (Flüssigkristallanzeige LCD) eine Ansicht dessen präsentiert, was der Bildsensor des Camcorders aktuell „sieht”, während Beleuchtungs- oder Fokusangaben der aufgezeichneten Szene überlagert werden.In an augmented reality system with camera switching, a person's view is usually limited to a single-layer display screen that presents the world as captured using a camera, but the display screen is physically opaque to the real world from the perspective of the eye is the person looking at the display screen. In other words, the person's view is indirect because the person does not receive light that comes from the real world. Instead, there is a camera with an image sensor in the real world scene, and two or more miniature display screens show the real world scene by accessing data from an image sensor of the camera. A camera-augmented augmented reality system is analogous to seeing through a "view finder" of a modern camcorder in which an LCD (liquid crystal display) LCD presents a view of what the camcorder's image sensor is currently "seeing" while illuminating - or focus information superimposed on the recorded scene.

Entsprechend ermöglichen kameravermittelte Erweiterte-Realität-Systeme ein genaues Zusammensetzen, da das Kombinieren der Realweltszene und der synthetischen Grafiken elektronisch durchgeführt wird und diese sodann zusammen auf einem einschichtigen Anzeigeschirm angezeigt werden. Nachteiligerweise verschlechtern kameravermittelte Systeme die Sicht einer Person auf die Realweltumgebung infolge von Auflösungs- und Latenzbeschränkungen der Kamera, infolge von Bildverarbeitungskomponenten und Beschränkungen des Anzeigeschirmes selbst. Ein kameravermitteltes Erweiterte-Realität-System wird zudem dunkel und vollständig opak, wenn ein Stromausfall in dem System auftritt.Accordingly, camera-enhanced augmented reality systems allow for accurate compositing because the combining of the real world scene and the synthetic graphics are performed electronically and then displayed together on a single-layer display screen. Disadvantageously worsen camera-mediated systems provide a person's view of the real-world environment due to camera resolution and latency limitations due to image processing components and limitations of the display screen itself. A camera-augmented reality system also becomes dark and completely opaque when a power failure occurs in the system.

Im Gegensatz hierzu sind bei einem auf Direktansicht beruhenden Erweiterte-Realität-System die Augen einer Person Lichtstrahlen ausgesetzt, die von Realweltobjekten stammen. Ein Direktansichtssystem beinhaltet einen Anzeigeschirm, der eine oder mehrere Anzeigeschichten aufweist, die zur Einführung zwischen den Augen einer Person und einer Realweltszene, die direkt betrachtet wird, ausgelegt ist. Ein Beispiel für eine Anzeigeschicht eines Anzeigeschirmes, durch den wenigstens teilweise hindurchgeschaut wird, ist eine Emissionsanzeigeschicht. Eine Emissionsanzeigeschicht kann für das Licht, das von Realweltobjekten stammt, primär transparent sein, wobei die Emissionsanzeigeschicht auch selektiv Bilder präsentieren kann, die derart ausreichend opak sind, dass sie von einem menschlichen Auge wahrnehmbar sind. Daher verwenden auf Direktansicht beruhende Erweiterte-Realität-Systeme fortgeschrittene Optiken, die in eine oder mehrere Anzeigeschichten integriert sind, um eine Illusion zu schaffen, bei der eine transparente Anzeige in einem festen Abstand vor dem Betrachter als einer Realweltszene überlagert erzeugt wird. Da Realweltobjekte direkt betrachtet werden, wird die Realwelt mit minimaler Latenz betrachtet.In contrast, in a direct-view augmented reality system, a person's eyes are exposed to light rays originating from real world objects. A direct view system includes a display screen having one or more display layers adapted for insertion between the eyes of a person and a real world scene being viewed directly. An example of a display layer of a display screen through which at least partially passes is an emission display layer. An emission display layer may be primarily transparent to the light originating from real world objects, and the emission display layer may also selectively present images that are sufficiently opaque that they are perceptible to a human eye. Therefore, augmented reality based systems use advanced optics integrated into one or more display layers to create an illusion in which a transparent display is generated at a fixed distance in front of the viewer superimposed as a real world scene. Since real world objects are viewed directly, the real world is viewed with minimal latency.

Nachteiligerweise weisen auf Direktansicht beruhende Erweiterte-Realität-Systeme zudem eine Anzahl von Nachteilen auf, so beispielsweise ein schmales Sichtfeld. Darüber hinaus unterliegen synthetische Grafiken, die zu einer Realweltszene hinzugefügt werden, Auflösungsbeschränkungen des Anzeigeteilsystems, das mehrere Anzeigeschichten eines Anzeigeschirmes beinhalten kann, zusammen mit zugeordneten Verarbeitungskapazitäten. Sobald darüber hinaus synthetische Grafiken durch ein auf Direktansicht beruhendes Erweiterte-Realität-System überlagert werden, kann die Fähigkeit einer Person, auf synthetische Grafiken geeignet zu fokussieren, infolge anatomischer Eigenschaften des menschlichen Auges beeinträchtigt werden. Das Präsentieren von synthetischen Grafiken derart, dass bewirkt wird, dass Auge und Gehirn synthetische Grafiken in einer gewünschten Tiefe in der Realweltansicht wahrnehmen, ist schwierig. Dies gilt insbesondere dann, wenn Auge und Gehirn einer Person versuchen, Licht, das aus einem Abstand von einigen Zentimetern vor dem Auge stammt, mit Licht, das von Realweltobjekten stammt, die Dutzende, Hunderte oder noch mehr Meter von der Person entfernt sind, zu kombinieren.Disadvantageously, augmented reality systems based on direct view also have a number of disadvantages, such as a narrow field of view. In addition, synthetic graphics added to a real world scene are subject to resolution limitations of the display subsystem, which may include multiple display layers of a display screen, along with associated processing capabilities. In addition, as synthetic graphics are superimposed by a direct-view augmented reality system, a person's ability to appropriately focus on synthetic graphics may be compromised due to anatomical features of the human eye. Presenting synthetic graphics such that the eye and brain are caused to perceive synthetic graphics at a desired depth in the real world view is difficult. This is especially true when a person's eye and brain try to emit light from a distance of a few centimeters in front of the eye with light from real world objects that are tens, hundreds, or even more meters away from the person combine.

Zur Erleichterung einer genauen Zusammensetzung von ortsnahen synthetischen Grafiken und ortsfernen Realweltobjekten kann eine prismatische Linse mit Freiformoptik als Anzeigeschicht eines Anzeigeschirmes in einem auf Direktansicht beruhenden Erweiterte-Realität-System verwendet werden. Eine prismatische Linse mit Freiformoptik präsentiert synthetische Grafiken mit geeigneten Fokuseigenschaften, die eine Person dabei unterstützen, die angezeigten synthetischen Grafiken ohne Unschärfe und in einer gewünschten Tiefe in der Feldansicht wahrzunehmen. Es kann ein integriertes, geringes Gewicht aufweisendes Augennachverfolgen eingesetzt werden, um abzuschätzen, wo die Augen einer Person gerade welches Objekt fokussieren, um die Fokaltiefe zu bestimmen.To facilitate accurate composition of near-surface synthetic graphics and remote real-world objects, a free-form optics prismatic lens can be used as the display layer of a display screen in a direct view augmented reality system. A prismatic lens with freeform optics presents synthetic graphics with appropriate focus characteristics that assist a person in perceiving the displayed synthetic graphics without blurring and at a desired depth in the field view. An integrated low weight eye tracking can be used to estimate where a person's eye is currently focusing which object to determine the depth of focus.

Ein schwer zu lösendes Problem bleibt indes das Einführen von verdeckenden synthetischen Grafiken in auf Direktansicht beruhenden Erweiterte-Realität-Systemen. Eine synthetische Grafik, die zu einer Realweltszene hinzugefügt wird, verdeckt die Sicht, die eine Person auf eine oder mehrere Realweltobjekte hat. Obwohl die verdeckende synthetische Grafik die Sicht auf einige Realweltobjekte blockiert, ist die verdeckende synthetische Grafik gleichwohl erwünscht, da die Grafik Information für die Person bereitstellt, so beispielsweise eine Beschreibung oder eine andere Kommentierung eines Objektes in der Realweltszene. Demgegenüber sind ablenkende Bildartefakte nicht erwünscht. Bei auf Direktansicht beruhenden Erweiterte-Realität-Systemen ist zudem problematisch, dass derartige Systeme ablenkende Bildartefakte in Zusammenwirkung mit der Präsentation von verdeckenden synthetischen Grafiken produzieren. Ein Beispiel für einen derartigen Bildartefakt ist ein Dunkelhof um eine angezeigte synthetische Grafik herum. Derartige Bildartefakte ergeben sich aus mehreren Durchschau-Anzeigeschichten, wobei das Licht von der Realweltszene oder aus der Interaktion von mehreren Schichten mit einfallendem Licht stammt.However, a problem that remains difficult to solve remains the introduction of masking synthetic graphics in direct-view augmented reality systems. A synthetic graphic that is added to a real world scene obscures a person's view of one or more real world objects. However, although the obscuring synthetic graphics blocks the view of some real world objects, the obscuring synthetic graphic is desirable because the graphic provides information to the person, such as a description or other comment of an object in the real world scene. In contrast, distracting image artifacts are undesirable. It is also problematic in direct view augmented reality systems that such systems produce distracting image artifacts in conjunction with the presentation of obscuring synthetic graphics. An example of such an image artifact is a dark field around a displayed synthetic graphic. Such image artifacts result from multiple show through display layers, where the light comes from the real world scene or from the interaction of multiple layers with incident light.

Ein zumindest aus der optischen Perspektive vergleichsweise einfacher Lösungsansatz zum Einführen von verdeckenden synthetischen Grafiken in eine Realweltszene nutzt einen herkömmlichen Stapel von LCD-Schichten. Der Stapel von LCD-Schichten kann sowohl die Realwelt dämpfen wie auch synthetische Grafiken im Vordergrund zusammen mit geeigneten Fokushinweisen bereitstellen. Nachteiligerweise verfügen derartige Vorrichtungen über eine niedrige räumliche Auflösung und erfordern eine rechentechnisch aufwändige Optimierungsverarbeitung, um die synthetischen Grafiken anzuzeigen. Darüber hinaus wird, damit die gestapelten LCD-Schichten eine Winkelauflösung erreichen, die Auflösung der LCD-Schichten vergrößert. LCD-Schichten einer ausreichend hohen Auflösung können jedoch die übertragene Ansicht der Realwelt infolge von Beugungseffekten unscharf machen. Der Einsatz von drei derartigen LCD-Schichten, die aufeinandergestapelt sind, verschärft dieses Problem noch. Wenn zudem ein herkömmlicher Stapel von LCD-Schichten zum Dämpfen der Sicht einer Person auf die Umgebung verwendet wird, um die Ansicht einer synthetischen Grafik zu unterstützen, ist ein Dunkelhof um die synthetische Grafik herum sichtbar. Alternative optische Systeme sind vorgeschlagen worden, wobei diese alternativen optischen Systeme jedoch aufwändig und komplex sind. Andere Alternativen beeinträchtigen andere erwünschte Aspekte eines Erweiterte-Realität-Systems, so beispielsweise einen guten Kontrast.A comparatively simple solution, at least from the optical perspective, for introducing masking synthetic graphics into a real-world scene uses a conventional stack of LCD layers. The stack of LCD layers can both attenuate the real world and provide foreground synthetic graphics along with appropriate focus hints. Disadvantageously, such devices have low spatial resolution and require computationally expensive optimization processing to display the synthetic graphics. In addition, in order for the stacked LCD layers to achieve angular resolution, the resolution of the LCD layers is increased. However, LCD layers of a sufficiently high resolution may result in the transmitted view of the real world to blur diffraction effects. The use of three such LCD layers stacked together further aggravates this problem. In addition, when a conventional stack of LCD layers is used to dampen a person's view of the environment to aid in viewing a synthetic graphic, a dark courtyard is visible around the synthetic graphic. Alternative optical systems have been proposed, but these alternative optical systems are expensive and complex. Other alternatives affect other desirable aspects of an augmented reality system, such as good contrast.

ZusammenfassungSummary

Beschrieben wird eine Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System. Eine Erweiterte-Realität-Einrichtung beinhaltet einen Anzeigeschirm, der zwei Anzeigeschichten aufweist, die selektiv transparent sind. Sind die beiden Anzeigeschichten beide transparent, so kann ein Nutzer durch die beiden Schichten hindurchblicken und eine Realweltszene direkt betrachten. Wenn eine oder beide der Schichten eine synthetische Grafik anzeigen, verdeckt die angezeigte Grafik jedoch wenigstens einen Teil der Sicht des Nutzers auf die Realweltszene, wobei diese Verdeckungen unerwünschte Bildartefakte produzieren können. Zwei Typen von ablenkenden und unerwünschten Bildartefakten sind unerwünschte Hellbereiche und unerwünschte Dunkelbereiche.Described is an image compensation for a masking, direct view augmented reality system. An augmented reality device includes a display screen having two display layers that are selectively transparent. If the two display layers are both transparent, a user can look through the two layers and directly look at a real world scene. However, if one or both of the layers display a synthetic graphic, the displayed graphic obscures at least a portion of the user's view of the real world scene, which can produce unwanted image artifacts. Two types of distracting and unwanted image artifacts are unwanted bright areas and unwanted dark areas.

Bei einem beschriebenen Aspekt kompensiert eine auf Direktansicht beruhende Erweiterte-Realität-Einrichtung einen unbeabsichtigten Hellbereich. Bei einem weiteren beschriebenen Aspekt kompensiert eine auf Direktansicht beruhende Erweiterte-Realität-Einrichtung einen unbeabsichtigten Dunkelbereich. Bei beiden beschriebenen Aspekten beinhaltet eine Erweiterte-Realität-Einrichtung einen Anzeigeschirm, der eine Emissionsanzeigeschicht und eine Dämpfungsanzeigeschicht aufweist, um synthetische Grafiken zu präsentieren. Im Betrieb präsentiert die Emissionsanzeigeschicht eine Emissionsgrafik, die für ein Auge des Nutzers angezeigt wird und einen gewissen Informationsinhalt beinhaltet. Die Dämpfungsanzeigeschicht ist zwischen der Emissionsanzeigeschicht und der Realweltszene positioniert und präsentiert eine Dämpfungsgrafik, die Licht, das von der Realweltszene stammt, dämpft (beispielsweise im Wesentlichen fernhält). Präpariert oder präsentiert werden können die Emissionsgrafik oder die Dämpfungsgrafik unter Verwendung von Intensitätsabbildungen bzw. Karten oder Lagen (mattes), die jeweils Zonen der Emissionsanzeigeschicht oder der Dämpfungsanzeigeschicht angeben, die aktiviert werden sollen, anstelle für Licht transparent zu sein.In one aspect described, an augmented-reality facility based on direct view compensates for an unintended bright area. In a further described aspect, a direct view augmented reality facility compensates for an unintended dark area. In both aspects described, an augmented reality device includes a display screen having an emission display layer and a damping display layer to present synthetic graphics. In operation, the emissions display layer presents an emissions graphic that is displayed to an eye of the user and includes some informational content. The attenuation display layer is positioned between the emission display layer and the real world scene and presents an attenuation graph that attenuates (eg, substantially keeps away) light originating from the real world scene. The emission graph or the attenuation graph may be prepared or presented using intensity maps or matte, respectively indicating areas of the emission display layer or the attenuation display layer to be activated instead of being transparent to light.

Ein unerwünschter Hellbereich ist sichtbar, wenn Licht, das von der Realweltszene stammt, wenigstens einen Teil einer Emissionsgrafik, die von der Emissionsanzeigeschicht präsentiert wird, ausbleicht (beispielsweise schwach erscheinen lässt). Ein innerer Hellhof (inner light halo) an der Grenze der Emissionsgrafik kann sich beispielsweise in Abhängigkeit von der Größe einer entsprechenden Dämpfungsgrafik, die für das Fernhalten von einfallendem Licht verantwortlich ist, entwickeln. Zum Kompensieren des unerwünschten Hellbereiches ergänzt ein Hellbereichskompensationsmodul die Dämpfungsgrafik, um die Größe der Dämpfungsgrafik zu erweitern. Im Betrieb ergänzt das Hellbereichskompensationsmodul die Dämpfungsgrafik auf Grundlage eines Attributes des Auges eines Nutzers, so beispielsweise des Radius der Pupille des Auges. Ein Faltungsfilter kann unter Verwendung des Augenattributes eingestellt und angewendet werden, um die erweiterte Dämpfungsgrafik zu produzieren. Die Erweiterte-Realität-Einrichtung zeigt die erweiterte Dämpfungsgrafik aus der Perspektive des Nutzers hinter der Emissionsgrafik an. Die Anzeige der erweiterten Dämpfungsgrafik kompensiert den unbeabsichtigten Hellbereich, der ansonsten für den Nutzer sichtbar wäre.An undesirable bright region is visible when light originating from the real world scene fades (eg, faint) at least part of an emission graphic presented by the emission display layer. For example, an inner light halo at the boundary of the emission graph may evolve depending on the size of a corresponding attenuation graph that is responsible for keeping away from incident light. To compensate for the unwanted bright area, a bright area compensation module supplements the mute graph to expand the size of the mute graph. In operation, the bright area compensation module supplements the attenuation graph based on an attribute of a user's eye, such as the radius of the pupil of the eye. A convolution filter can be set and applied using the eye attribute to produce the expanded attenuation graph. The Enhanced Reality feature displays the expanded attenuation graph from the user's perspective behind the emissions graph. The expanded attenuation graph display compensates for the unintended bright area that would otherwise be visible to the user.

Ein unerwünschter Dunkelbereich ist sichtbar, wenn eine Dämpfungsgrafik zu viel Licht fernhält, was beispielsweise in einer Zone der Fall ist, die aus der Perspektive des Auges des Nutzers nicht von einer entsprechenden Emissionsgrafik bedeckt ist. Ein äußerer Dunkelhof (outer dark halo) an der Grenze der Emissionsgrafik kann sich beispielsweise entwickeln, wenn sich eine entsprechende Dämpfungsgrafik über die Emissionsgrafik hinaus erstreckt. Um den unerwünschten Dunkelbereich zu kompensieren, hellt ein Dunkelbereichskompensationsmodul unter Verwendung der Emissionsanzeigeschicht den Dunkelbereich auf. Im Betrieb verwendet das Dunkelbereichskompensationsmodul eine Kamera, um Daten zu beziehen, die Licht darstellen, das aus der Realweltszene stammt. Diese Lichtdaten werden verwendet, um eine Replikgrafik zu erstellen, die das Aussehen der Realweltszene für den unbeabsichtigten Dunkelbereich reproduziert. Des Weiteren kann die Erstellung der Replikgrafik durch Defokussieren einer Dämpfungslage für die erweiterte Dämpfungsgrafik eingestellt werden, um einer Linsenunschärfe gerecht zu werden, die sich daraus ergibt, dass die Dämpfungsgrafik außerhalb des Fokus für das Auge des Nutzers ist. Die Erweiterte-Realität-Einrichtung verwendet die Emissionsanzeigeschicht dazu, die Replikgrafik in einem Bereich zu präsentieren, der einen Rand der Emissionsgrafik dort begrenzt, wo sich die erweiternde Dämpfungsgrafik über einen Rand der Emissionsgrafik hinaus erstreckt. Die Anzeige der Replikgrafik kompensiert den unbeabsichtigten Dunkelbereich durch Reproduzieren des Aussehens der Realweltszene in einer Zone des beabsichtigten Dunkelbereiches, die andernfalls für den Nutzer sichtbar wäre.An undesirable dark area is visible when an attenuation graph keeps too much light off, which is the case, for example, in a zone that is not covered by a corresponding emission graph from the perspective of the user's eye. For example, an outer dark halo at the boundary of the emission graph may develop when a corresponding attenuation graph extends beyond the emission graph. To compensate for the unwanted dark area, a dark area compensation module lightens the dark area using the emission display layer. In operation, the dark area compensation module uses a camera to obtain data representing light coming from the real world scene. This light data is used to create a replica graphic that reproduces the appearance of the real world scene for the unintended dark area. Furthermore, the creation of the replica graphic can be adjusted by defocusing an attenuation map for the enhanced attenuation graph to accommodate lens blurring that results from the attenuation graph being out of focus for the user's eye. The augmented reality facility uses the emission display layer to present the replica graph in a region that bounds an edge of the emission graph where the expanding attenuation graph extends beyond an edge of the emission graph. The display of the replica graphic compensates for the unintended dark area by reproducing the appearance of the real world scene in a zone of the intended dark area that would otherwise be visible to the user.

Die vorliegende Zusammenfassung bietet in vereinfachter Form eine einleitende Auswahl von Konzepten, die nachstehend in der Detailbeschreibung weiter beschrieben werden. Die vorliegende Zusammenfassung soll per se wesentliche Merkmale des beanspruchten Erfindungsgegenstandes weder identifizieren, noch soll sie als Hilfe beim Bestimmen des Umfanges des beanspruchten Erfindungsgegenstandes verwendet werden.The present summary, in a simplified form, provides an introductory selection of concepts, which are further described below in the Detailed Description. The present summary is not intended to identify per se essential features of the claimed subject matter, nor is it intended to be used as an aid in determining the scope of the claimed subject matter.

Kurzbeschreibung der ZeichnungBrief description of the drawing

Die Detailbeschreibung wird anhand der begleitenden Figuren präsentiert.The detailed description will be presented on the basis of the accompanying figures.

1 zeigt eine Umgebung für exemplarische Ausführungsformen, die betreibbar sind, um eine Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System zu implementieren. 1 FIG. 10 illustrates an environment for exemplary embodiments operable to implement image compensation for a hidden direct-view augmented reality system. FIG.

2 zeigt ein Beispiel für simulierte Bilder einer Realweltszene und einer verdeckenden synthetischen Grafik, die in einer zusammengesetzten Bildansicht zusammengesetzt sind. 2 shows an example of simulated images of a real world scene and a masking synthetic graphic, which are assembled in a composite image view.

3 zeigt ein Beispiel für eine Erweiterte-Realität-Einrichtung mit einer Durchschau-Emissionsanzeigeschicht und einer Dämpfungsanzeigeschicht. 3 shows an example of an augmented reality device with a see-through emission display layer and a damping display layer.

4A und 4B zeigen ein erstes visuelles Zusammensetzungsproblem, das auftritt, wenn eine Emissionsanzeigeschicht ohne Dämpfungsanzeigeschicht betrieben wird. 4A and 4B show a first visual composition problem that occurs when an emission display layer is operated without a damping display layer.

5A und 5B zeigen ein zweites visuelles Zusammensetzungsproblem, das bei einer direkten Implementierung einer Dämpfungsanzeigeschicht auftritt. 5A and 5B show a second visual composition problem that occurs with a direct implementation of a damping display layer.

6 zeigt ein Beispiel für ein Bildkompensationsmodul, das ein Hellbereichskompensationsmodul und ein Dunkelbereichskompensationsmodul beinhaltet. 6 shows an example of an image compensation module including a bright area compensation module and a dark area compensation module.

7 zeigt exemplarische Aspekte zum Anzeigen einer Emissionsgrafik und einer Dämpfungsgrafik. 7 shows exemplary aspects for displaying an emissions graph and an attenuation graph.

8 zeigt schematisch einen exemplarischen Lösungsansatz zum Ergänzen einer scharfen Dämpfungsgrafik zum Produzieren einer erweiterten Dämpfungsgrafik. 8th FIG. 12 schematically illustrates an exemplary approach to supplementing a sharp attenuation graph to produce an expanded attenuation graph.

9 zeigt ein Beispiel für mehrere physikalische Eigenschaften im Zusammenhang mit der Verwendung eines Radius einer Pupille zum Bestimmen eines Faktors zum Ergänzen einer Dämpfungsgrafik. 9 FIG. 10 shows an example of multiple physical properties associated with using a radius of a pupil to determine a factor to supplement an attenuation graph.

10 zeigt eine Problematik, die sich daraus ergibt, dass eine Dämpfungsgrafik derart vergrößert wird, dass ein unerwünschter Dunkelbereich sichtbar ist. 10 shows a problem that arises from the fact that an attenuation graph is increased such that an undesirable dark area is visible.

11 zeigt exemplarische Aspekte zum Anpassen einer Dämpfungslage, um einer außerhalb des Fokus befindlichen Dämpfungsgrafik gerecht zu werden. 11 shows exemplary aspects for adjusting an attenuation attitude to cope with an out-of-focus attenuation plot.

12A und 12B zeigen exemplarische Aspekte zum Erzeugen einer Replikgrafik unter Verwendung einer Replikmaske und Licht, das von einer Kamera detektiert wird. 12A and 12B show exemplary aspects for generating a replica graphic using a replica mask and light detected by a camera.

13 zeigt ein schematisches Diagramm einer Erweiterte-Realität-Einrichtung, die eine Ansicht eines zusammengesetzten Bildes unterstützt. 13 FIG. 12 is a schematic diagram of an augmented reality device that supports a composite image view. FIG.

14 zeigt ein exemplarisches Ergebnis einer Bildkompensation für eine verdeckende Grafik durch ein Bildkompensationsmodul einer Erweiterte-Realität-Einrichtung. 14 shows an exemplary result of image compensation for a masking graphic by an image augmentation module of an augmented reality device.

15 ist ein Flussdiagramm zur Darstellung einer exemplarischen Prozedur entsprechend einer oder mehreren exemplarischen Ausführungsformen. 15 FIG. 10 is a flowchart illustrating an exemplary procedure according to one or more exemplary embodiments.

16A und 16B zeigen zwei Beispiele für simulierte zusammengesetzte Bildansichten, die sich bei einer Fehlausrichtung ergeben. 16A and 16B Figure 2 shows two examples of simulated composite image views resulting from misalignment.

17A und 17B zeigen zwei Beispiele für simulierte zusammengesetzte Bildansichten, die sich bei einer Überbetonung der Effekte einer Bildunschärfe ergeben. 17A and 17B Figure 2 shows two examples of simulated composite image views that result in overemphasizing the effects of image blur.

18A und 18B zeigen zwei Beispiele für simulierte zusammengesetzte Bildansichten, die sich bei einer Unterbetonung der Effekte einer Bildunschärfe ergeben. 18A and 18B Figure 2 shows two examples of simulated composite image views that result in under-emphasizing the effects of image blur.

19A und 19B zeigen zwei Beispiele für simulierte zusammengesetzte Bildansichten, die sich daraus ergeben, dass ein Nutzer mit einer anderen Tiefe als derjenigen des Hintergrundes fokussiert. 19A and 19B Figure 2 shows two examples of simulated composite image views that result from a user focusing at a depth different than that of the background.

20 zeigt ein Beispiel für eine simulierte zusammengesetzte Bildansicht, die sich daraus ergibt, dass ein Nutzer mit der Tiefe des Hintergrundes fokussiert. 20 shows an example of a simulated composite image view that results from a user focusing on the depth of the background.

21 zeigt ein exemplarisches System oder eine exemplarische Vorrichtung, die für Ausführungsformen der Bildkompensation für ein verdeckendes auf direkter Ansicht beruhendes Erweiterte-Realität-System einsetzbar sind. 21 FIG. 12 shows an exemplary system or apparatus that may be used for embodiments of image compensation for a hidden direct-view augmented reality system.

Detailbeschreibung detailed description

ÜbersichtOverview

Im Vergleich zu Erweiterte-Realität-Systemen, die auf einer kameravermittelten indirekten Ansicht beruhen, weisen auf Direktansicht beruhende Erweiterte-Realität-Systeme eine niedrigere Latenz auf und bieten eine authentischere Interaktion mit der Realwelt wie auch ein natürlicheres Erleben der Sicht auf die Realwelt. Nachteiligerweise präsentiert die Implementierung eines auf Direktansicht beruhenden Erweiterte-Realität-Systems eine andere Menge von Problemen. Das Anzeigen von synthetischen Grafiken derart, dass Auge und Gehirn ermöglicht wird, den synthetischen Inhalt in einer beabsichtigten Tiefe in der Realweltansicht zu deuten, ist beispielsweise schwierig. Dies rührt insbesondere daher, dass Auge und Gehirn versuchen, auf Lichtstrahlen, die aus vielen Metern Entfernung vom Auge stammen, und Lichtstrahlen, die aus einer Entfernung von einigen wenigen Millimetern stammen, zu fokussieren und diese miteinander zu kombinieren. Diese Abstände sind voneinander um Größenordnungen verschieden, wobei die verschiedenen Abstände die Erstellung einer vergleichsweise fließenden, nicht unscharfen zusammengesetzten Ansicht problematisch machen. Des Weiteren können Lichtstrahlen von Realweltobjekten mit den Lichtstrahlen der synthetischen Grafiken derart interagieren, dass sie die Fähigkeit eines Nutzers beeinträchtigen, dass eine oder das andere zu sehen, da Bildartefakte geschaffen werden. Bereiche, die beispielsweise dunkler oder heller als gewünscht oder beabsichtigt sind, können für einen Nutzer in einer Bildansicht, die die synthetischen Grafiken mit den Realweltobjekten zusammensetzt, visuell sichtbar sein.Compared to augmented reality systems based on a camera-mediated indirect view, augmented-reality augmented reality systems have lower latency and provide a more authentic interaction with the real world as well as a more natural experience of the real world view. Disadvantageously, implementing a direct view augmented reality system presents a different set of problems. For example, displaying synthetic graphics such that the eye and brain are allowed to interpret the synthetic content at an intended depth in the real-world view is difficult. This is particularly because the eye and brain are trying to focus on beams of light that come from many meters away from the eye and beams of light that come from a distance of a few millimeters, and to combine them. These distances are different from each other by orders of magnitude, the different distances making the creation of a comparatively fluid, non-blurred composite view problematic. Furthermore, light rays from real world objects may interact with the light rays of the synthetic graphics such that they interfere with a user's ability to see one or the other as image artifacts are created. For example, areas that are darker or lighter than desired or intended may be visually visible to a user in an image view composing the synthetic graphics with the real world objects.

Es wird hier eine Technik für ein auf Direktansicht beruhendes Erweiterte-Realität-System offenbart, das eine Bildzusammensetzung für einen betrachtenden Nutzer ermöglicht. Das auf direkter Ansicht beruhende Erweiterte-Realität-System beinhaltet eine Emissionsanzeigeschicht und eine Dämpfungsanzeigeschicht, die zwischen den Augen eines Nutzers und einer Realweltszene platziert sind. Die Technologie kompensiert vorteilhafterweise unerwünschte Bildartefakte, die sich aus einer Interaktion zwischen den Augen des Nutzers, den Realweltobjekten und den Anzeigeschichten eines auf Direktansicht beruhenden Erweiterte-Realität-Systems ergeben. Bei bestehenden Systemen wird unerwünschten Bildartefakten durch Verwendung von drei oder mehr gestapelten LCD-Schichten begegnet, was jedoch rechentechnisch aufwendig ist und sehr wahrscheinlich die übertragene Ansicht der Realweltszene infolge von Beugungseffekten unscharf macht. Die Technologie kann jedoch die unerwünschten Bildartefakte unter Verwendung von weniger als drei LCD-Schichten dadurch kompensieren, dass dasjenige angepasst wird, was an jeder Schicht angezeigt wird.There is disclosed herein a technology for a direct view augmented reality system that allows image composition for a viewing user. The direct view augmented reality system includes an emission display layer and a damping display layer placed between the eyes of a user and a real world scene. The technology advantageously compensates for unwanted image artifacts resulting from an interaction between the user's eyes, the real world objects, and the display layers of a direct view augmented reality system. Existing systems address unwanted image artifacts by using three or more stacked LCD layers, but this is computationally expensive and very likely blurs the transmitted view of the real world scene due to diffraction effects. However, the technology can compensate for the unwanted image artifacts using less than three LCD layers by adjusting what is displayed at each layer.

Anstelle der Verwendung von drei oder mehr gestapelten LCD-Schichten kann ein Anzeigeschirm für ein Erweiterte-Realität-System eine einzige Anzeigeschicht, so beispielsweise eine Emissionsanzeigeschicht, verwenden. Wird eine Anzeigeschicht mit lediglich einer Emissionsanzeigeschicht verwendet, so kann jedoch ein heller Hintergrund einer Realweltszene das Aussehen einer synthetischen Grafik, die von der Emissionsanzeigeschicht präsentiert wird, ausbleichen. Um diesem Ausbleicheffekt zu begegnen, ist eine Dämpfungsanzeigeschicht als zweite Schicht zwischen der Emissionsanzeigeschicht und der Realweltszene eingebaut. Die Emissionsanzeigeschicht präsentiert eine Emissionsgrafik, so beispielsweise einen Alarmhinweis oder ein Anweisungssymbol, um Information zu der Realweltszene hinzuzufügen. Die Dämpfungsanzeigeschicht präsentiert eine außerhalb des Fokus befindliche verdeckende Grafik (nachstehend als „Dämpfungsgrafik” bezeichnet) hinter der Emissionsgrafik, um zu verhindern, dass Licht aus der Realweltszene die Emissionsgrafik ausbleicht. Nachteiligerweise kann die sich ergebende Kombination aus der Emissionsgrafik und der dieselbe Größe aufweisenden Dämpfungsgrafik Bildartefakte bei Ansicht durch ein Auge eines Nutzers entwickeln. Die Kombination macht beispielsweise einen unbeabsichtigten Hellbereich und einen unbeabsichtigten Dunkelbereich für den Nutzer sichtbar. Ein innerer Hellhof und ein äußerer Dunkelhof erscheinen beispielsweise um eine Grenzzone der Emissionsgrafik herum.Instead of using three or more stacked LCD layers, a display panel for an augmented reality system may use a single display layer, such as an emission display layer. However, when a display layer having only one emission display layer is used, a light background of a real world scene may fade the appearance of a synthetic graphic presented by the emission display layer. To counteract this bleaching effect, a damping display layer is incorporated as a second layer between the emission display layer and the real world scene. The emission display layer presents an emission graphic, such as an alert or an instruction icon, to add information to the real world scene. The attenuation display layer presents an out-of-focus occluding graph (hereinafter referred to as "attenuation graph") behind the emission graph to prevent light from the real world scene from bleaching the emission graph. Unfortunately, the resulting combination of emission graphics and the same sized attenuation graph may develop image artifacts when viewed through an user's eye. For example, the combination makes an inadvertent light area and unintended dark area visible to the user. For example, an inner Hellhof and an outer Dark Court appear around a boundary zone of the emission graph.

Um die visuellen Effekte der Bildartefakte anzugehen, die sich aus der Einführung einer verdeckenden synthetischen Grafik in eine auf Direktansicht beruhende Erweiterte-Realität-Anzeige ergeben, werden Einrichtungen und Techniken zum Kompensieren derartiger Bildartefakte beschrieben. Die Verwendung der hier offenbarten Erweiterte-Realität-Einrichtung, die einen Anzeigeschirm mit zwei Anzeigeschichten beinhaltet, sowie einer oder mehrerer zugehöriger Techniken verbessert vorteilhafterweise das Aussehen der unerwünschten Hellbereiche oder der unerwünschten Dunkelbereiche. Bei exemplarischen Implementierungen unterstützt eine außerhalb des Fokus befindliche verdeckende Dämpfungsgrafik die Ansicht einer Emissionsgrafik, die zu einer Realweltszene hinzugefügt ist. Die außerhalb des Fokus befindliche Dämpfungsgrafik kann mit einer vergleichsweise niedrigen Auflösung implementiert werden, wobei diese niedrigere Auflösung vorteilhafterweise die Beugungseffekte verringert, die ansonsten zu einer Unschärfe der Direktansicht der Realwelt, die durch die transparenten Anzeigeschichten betrachtet wird, führen können.To address the visual effects of image artifacts resulting from the introduction of a masking synthetic graphic into a direct view augmented reality display, devices and techniques for compensating such image artifacts are described. The use of the augmented reality device disclosed herein including a display screen with two display layers, as well as one or more associated techniques, advantageously enhances the appearance of the unwanted light areas or unwanted dark areas. In exemplary implementations, an out-of-focus hiding attenuation graph supports the view of an emissions graph added to a real world scene. The out-of-focus attenuation map may be implemented at a comparatively low resolution, which lower resolution advantageously reduces the diffraction effects that may otherwise result in blurring the direct view of the real world viewed through the transparent display layers.

Bei einigen Ausführungsformen beinhaltet die offenbarte Technologie ein Bildkompensationsmodul, das Techniken zur Verbesserung von Bereichen, die unerwünschte Leuchtpegel aufweisen, einsetzt. Das Bildkompensationsmodul beinhaltet ein Hellbereichskompensationsmodul oder ein Dunkelbereichskompensationsmodul. Das Hellbereichskompensationsmodul und das Dunkelbereichskompensationsmodul können separat oder auch synergetisch miteinander verwendet werden. Im Allgemeinen modifiziert das Hellbereichskompensationsmodul eine Transparenzlage, die für eine Dämpfungsanzeigeschicht verwendet wird, um zu verhindern, dass unerwünschtes Licht durch die Anzeige hindurch gelangt. Diese Modifikation wird mittels einer Berechnung erreicht, die den Pupillendurchmesser des Nutzers berücksichtigt. Das Dunkelbereichskompensationsmodul verhindert, dass der Hintergrund zu dunkel erscheint, indem zum Vordergrund ausreichend Licht hinzugefügt wird, um den gedämpften Hintergrund zu kompensieren. Dies impliziert die Verwendung einer nach vorne orientierten Kamera, um das Licht, das aus dem Hintergrund eintrifft, abzuschätzen. Das sich ergebende kamerabasierte Vordergrundbild, das hier als Replikgrafik bezeichnet wird, wird zusammen mit der Emissionsgrafik in einer Emissionsanzeigeschicht präsentiert, um den unerwünschten Dunkelbereich zu kompensieren. Der Teil des Hintergrundes wird jedoch direkt vom Nutzer betrachtet. In some embodiments, the disclosed technology includes an image compensation module employing techniques for enhancing areas having undesirable luminance levels. The image compensation module includes a bright area compensation module or a dark area compensation module. The bright area compensation module and the dark area compensation module may be used separately or synergistically with each other. In general, the bright area compensation module modifies a transparency layer used for a damping display layer to prevent unwanted light from passing through the display. This modification is achieved by means of a calculation which takes into account the pupil diameter of the user. The dark area compensation module prevents the background from appearing too dark by adding sufficient light to the foreground to compensate for the muted background. This implies the use of a front-facing camera to estimate the light coming in from the background. The resulting camera-based foreground image, referred to herein as a replica graphic, is presented along with the emission graphic in an emission display layer to compensate for the unwanted dark area. However, the part of the background is viewed directly by the user.

Um einen unerwünschten Hellbereich zu kompensieren, ergänzt (beispielsweise erweitert) das Hellbereichskompensationsmodul die Dämpfungsgrafik insbesondere derart, dass diese sich über einen Rand der Emissionsgrafik hinaus erstreckt. Um zu bestimmen, wie weit die Grenze der Dämpfungsgrafik über den Rand der Emissionsgrafik hinaus erstreckt werden muss, wird ein Wert verwendet, der ein Attribut des Auges des Nutzers angibt. So wird beispielsweise der Radius der Pupille des Auges verwendet, um einen Filter einzustellen, der die Größe der erweiterten Dämpfungsgrafik einrichtet. Infolge der natürlichen Fokussierungseigenschaften des Auges zusammen mit der relativen Positionierung der Emissions- und Dämpfungsanzeigeschichten scheint die erweiterte Dämpfungsgrafik außerhalb des Fokus zu sein. Die erweiterte Dämpfungsgrafik dämpft dennoch mehr Licht aus dem Umfeld der Grenze der Emissionsgrafik im Vergleich zu einer nicht erweiterten Dämpfungsgrafik. Infolge dessen wird ein unbeabsichtigter Hellbereich (beispielsweise ein innerer Hellhof) dadurch kompensiert, dass die Sichtbarkeit des unerwünschten Hellbereiches beträchtlich verringert wird. Das Aussehen eines unerwünschten Dunkelbereiches (beispielsweise eines äußeren Dunkelhofes) kann jedoch stärker hervortreten.In order to compensate for an undesired bright area, the bright area compensation module supplements (for example, extends) the attenuation graph, in particular such that it extends beyond an edge of the emission graph. In order to determine how far the boundary of the attenuation graph needs to be extended beyond the edge of the emission graph, a value indicating an attribute of the user's eye is used. For example, the radius of the pupil of the eye is used to set a filter that adjusts the size of the expanded attenuation graph. Due to the natural focusing properties of the eye along with the relative positioning of the emission and attenuation display layers, the expanded attenuation graph appears to be out of focus. The extended attenuation graph still attenuates more light from the environment of the border of the emission graph compared to a non-expanded attenuation graph. As a result, an unintended bright area (for example, an inner bright court) is compensated for by considerably reducing the visibility of the unwanted bright area. However, the appearance of an undesirable dark area (for example, an outer dark courtyard) may become more prominent.

Um einen unerwünschten Dunkelbereich unabhängig von dessen Ursache zu kompensieren, kann das Dunkelbereichskompensationsmodul den Dunkelbereich mit Pixeln bedecken, die wenigstens den Helligkeitspegel der Realweltszene in der Umgebung des Dunkelbereiches replizieren. Entspricht der Dunkelbereich einem äußeren Dunkelhof, so existiert eine Zone zwischen dem Rand der Emissionsgrafik und einer Grenze der Dämpfungsgrafik, die eine erweiterte Dämpfungsgrafik sein kann. Eine nach außen orientierte Kamera detektiert Licht, das von der Realweltszene stammt, wenigstens in der dieser Zone entsprechenden Umgebung. Das Dunkelbereichskompensationsmodul wandelt das detektierte Licht in Pixel um, die das Aussehen der Realweltszene in dem unbeabsichtigten Dunkelbereich replizieren, um eine Replikgrafik zu erzeugen. Das Dunkelbereichskompensationsmodul fügt die Replikpixel der Replikgrafik zu denjenigen der Emissionsgrafik hinzu und präsentiert beide in der Emissionsanzeigeschicht, um den unerwünschten Dunkelbereich zu kaschieren. Daher wird ein unbeabsichtigter Dunkelbereich (beispielsweise ein äußerer Dunkelhof) dadurch kompensiert, dass der unerwünschte Dunkelbereich auf Grundlage des Aussehens der Realweltszene im Hintergrund beträchtlich aufgehellt wird.In order to compensate for an undesired dark area, regardless of its cause, the dark area compensation module may cover the dark area with pixels that at least replicate the brightness level of the real world scene in the vicinity of the dark area. If the dark area corresponds to an outer dark courtyard, then there is a zone between the edge of the emission graph and a boundary of the attenuation graph, which may be an extended attenuation graph. An outwardly oriented camera detects light originating from the real world scene, at least in the environment corresponding to that zone. The dark area compensation module converts the detected light into pixels that replicate the appearance of the real world scene in the unintended dark area to produce a replica graphic. The dark area compensation module adds the replica pixels of the replica graphic to those of the emission graphics and presents both in the emission display layer to mask the unwanted dark area. Therefore, an unintended dark area (for example, an outer dark courtyard) is compensated for by significantly lightening the unwanted dark area based on the appearance of the real world scene in the background.

In der nachfolgenden Diskussion wird, nachdem einige exemplarische terminologische Begriffe beschrieben worden sind, eine exemplarische Umgebung beschrieben, in der die hier beschriebenen Techniken zum Einsatz kommen können. Exemplarische ausführungsformgemäße Systeme, Einrichtungen und Techniken werden sodann beschrieben, gefolgt von einem Abschnitt, in dem Prozeduren und Prozesse einer exemplarischen Ausführungsform erläutert werden. Die Prozeduren und Prozesse können in der exemplarischen Umgebung und in Systemen wie auch in anderen Umgebungen durchgeführt werden. Das Leistungsvermögen der exemplarischen Prozeduren ist jedoch nicht auf die exemplarische Umgebung beschränkt, und es sind auch die exemplarische Umgebung und die Systeme nicht auf das Leistungsvermögen der exemplarischen Prozeduren beschränkt.In the following discussion, after some exemplary terminology has been described, an exemplary environment in which the techniques described herein may be used will be described. Exemplary embodiments, systems, and techniques are then described, followed by a section in which procedures and processes of an exemplary embodiment are explained. The procedures and processes can be performed in the example environment and in systems as well as in other environments. However, the performance of the exemplary procedures is not limited to the exemplary environment, nor are the example environment and systems limited to the performance of the example procedures.

Die Zeichnung, insbesondere 1 bis 14, beinhalten eine Mischung aus schematischen Diagrammen wie auch simulierten Bildern. Die schematischen Diagramme und die simulierten Bilder sollen Aspekte von Ausführungsformen derart darstellen, dass die relevanten terminologischen Begriffe und Prinzipien leicht zu verstehen sind. Die simulierten Bilder sollen zudem visuelle Beispiele für die Ergebnisse der Anwendung der beschriebenen Prinzipien darstellen. Ein Vergleich von schematischen Diagrammen mit simulierten Bildern kann dadurch erfolgen, dass die schematischen Diagramme von 1 zusammen mit den simulierten Bildern von 2 betrachtet werden. 2, 4A, 5A und 14 beinhalten sowohl ein schematisches Diagramm wie auch ein simuliertes Bild. 15 betrifft exemplarische Prozeduren. 16A bis 20 zeigen zusätzliche simulierte Bilder, um das Verständnis des Genauigkeits- und Fehleranalyseabschnittes zu erleichtern, worauf eine Beschreibung der exemplarischen Prozeduren folgt. Ein letzter Abschnitt beschreibt anhand 21 eine exemplarische Rechenvorrichtung, die die beschriebenen Techniken implementieren kann.The drawing, in particular 1 to 14 , contain a mixture of schematic diagrams as well as simulated pictures. The schematic diagrams and the simulated images are intended to depict aspects of embodiments such that the relevant terminology terms and principles are easily understood. The simulated images should also be visual examples of the results of applying the principles described. A comparison of schematic diagrams with simulated images can be done by the schematic diagrams of 1 along with the simulated pictures of 2 to be viewed as. 2 . 4A . 5A and 14 contain both a schematic diagram and a simulated image. 15 concerns exemplary procedures. 16A to 20 show additional simulated images to facilitate understanding of the accuracy and error analysis section, followed by a description of the exemplary procedures. A final section describes 21 an exemplary computing device that can implement the described techniques.

Beispiele für die TerminologieExamples of the terminology

Exemplarische Beschreibungen oder Erläuterungen gewisser hier verwendeter Begriffe folgen nachstehend. Jeder Begriff ist bei einer oder mehreren, jedoch nicht notwendigerweise bei allen hier präsentierten Ausführungsformen anwendbar. Einige Begriffe werden zudem unter Verwendung eines oder mehrerer Beispiele veranschaulicht.Exemplary descriptions or explanations of certain terms used herein follow below. Each term is applicable to one or more, but not necessarily all embodiments presented herein. Some terms are also illustrated using one or more examples.

Eine „Realweltszene” bezeichnet eine Ansicht einer aktuellen Umgebung, auf die ein Nutzer in Echtzeit oder nahezu in Echtzeit gerade schaut. Realweltszenen stehen im Gegensatz zu computererzeugten Bildern. Beispiele für eine Realweltszene können eine Feier mit Freunden, ein Fußballspiel, eine Aussicht von einem Berg, eine Kindertanzvorführung und dergleichen mehr beinhalten. Eine Realweltszene kann direkt oder indirekt betrachtet werden.A "real world scene" refers to a view of a current environment that a user is looking at in real time or near real time. Real world scenes are in contrast to computer generated images. Examples of a real world scene may include a celebration with friends, a football game, a mountain view, a children's dance performance, and the like. A real world scene can be viewed directly or indirectly.

Eine „Direktansicht” einer Realweltszene bezeichnet eine Situation oder Umgebung, in der die Augen eines Nutzers Licht, das von einem Realweltobjekt (beispielsweise durch Reflexion oder Ausstrahlung) stammt, empfangen. Die Lichtstrahlen können indes durch eine oder mehrere transparente, halbtransparente oder teilweise opake Schichten, so beispielsweise eine LCD-Schicht, hindurchlaufen. Eine Direktansicht steht im Gegensatz zu einer Indirekten oder kameravermittelten Ansicht, bei der eine Person auf eine Realweltszene unter Verwendung eines Anzeigeschirmes, dem Bilder von einem Kamerasensor zugeleitet werden, schaut.A "direct view" of a real world scene refers to a situation or environment in which the eyes of a user receive light originating from a real world object (such as reflection or broadcast). However, the light rays may pass through one or more transparent, semi-transparent, or partially opaque layers, such as an LCD layer. A direct view is in contrast to an indirect or camera-mediated view in which a person looks at a real world scene using a display screen to which images are fed from a camera sensor.

Ein „Bildartefakt” bezeichnet in einem Stand- oder Bewegtbild einen unbeabsichtigten oder unerwünschten Aspekt, der kein natürlicher Teil des Bildes ist. Der Bildartefakt ist ein wahrnehmbarer künstlicher Aspekt eines Bildes, der infolge einer Linse, eines Aufzeichnungsmechanismus, einer Reproduktionstechnik, infolge hinzugefügter synthetischer Grafiken, der menschlichen Wahrnehmung, einer Kombination hieraus und dergleichen mehr eingeführt werden kann. Beispiele für Bildartefakte können einen unbeabsichtigten Hellbereich, einen unbeabsichtigten Dunkelbereich, einen Lens-Flare-Effekt, eine Unschärfe, eine Verpixelung oder eine Kombination hieraus beinhalten.An "image artifact" in an still or moving image refers to an unintentional or undesirable aspect that is not a natural part of the image. The image artifact is a perceptible artificial aspect of an image that may be more introduced due to a lens, a recording mechanism, a reproduction technique, as a result of added synthetic graphics, human perception, a combination thereof, and the like. Examples of image artifacts may include an inadvertent light area, an unintended dark area, a lens flare effect, a blur, a pixelation, or a combination thereof.

Ein „unbeabsichtigter Hellbereich” bezeichnet eine Zone eines Bildes, die heller als beabsichtigt oder erwünscht ist. Ein visuell sichtbarer Hellbereich, der eigentlich nicht vorhanden ist, keinen Zweck hat oder nicht genau eine hellere Zone einer Realweltszene angibt, ist gegebenenfalls unbeabsichtigt. Ist eine Zone eines Bildes beispielsweise heller als eine andere Zone des Bildes, unterscheiden sich jedoch entsprechende Realweltzonen hinsichtlich der Helligkeit nicht, so ist die hellere Zone des Bildes gegebenenfalls ein unbeabsichtigter Hellbereich. Eine Zone, die derart hell ist, dass die Zone ausgebleicht erscheint oder schwer zu sehen ist, kann eindeutig ein unbeabsichtigter Hellbereich sein.An "unintended bright area" refers to a zone of an image that is brighter than intended or desired. A visually visible bright area, which is actually not present, has no purpose or does not indicate exactly a brighter zone of a real world scene, may be unintentional. For example, if one zone of an image is brighter than another zone of the image, but corresponding real-world zones do not differ in brightness, the brighter zone of the image may be an unintended bright region. A zone that is so bright that the zone appears bleached or difficult to see may clearly be an inadvertent bright area.

Ein „unbeabsichtigter Dunkelbereich” bezeichnet eine Zone eines Bildes, die dunkler als beabsichtigt oder erwünscht ist. Ein visuell sichtbarer Dunkelbereich, der eigentlich nicht vorhanden ist, keinen Zweck hat oder nicht genau eine dunklere Zone einer Realweltszene angibt, ist gegebenenfalls unbeabsichtigt. Ist beispielsweise eine Zone eines Bildes dunkler als eine andere Zone des Bildes, unterscheiden sich jedoch die entsprechenden Realweltzonen hinsichtlich der Dunkelheit nicht voneinander, so ist die dunklere Zone des Bildes gegebenenfalls ein unerwünschter Dunkelbereich. Eine Zone, die derart dunkel ist, dass die Zone schwarz, dunkelgrau, schattiert oder schwer zu sehen sind, ist gegebenenfalls ebenfalls ein unbeabsichtigter Dunkelbereich.An "unintended dark area" refers to a zone of an image that is darker than intended or desired. A visually visible dark area that is actually non-existent, has no purpose or does not accurately indicate a darker zone of a real world scene may be unintentional. For example, if one zone of an image is darker than another zone of the image, but the corresponding real world zones are not different in darkness, the darker zone of the image may be an undesirable dark area. A zone that is so dark that the zone may be black, dark gray, shaded, or hard to see may also be an unintended dark area.

Eine „Emissionsanzeigeschicht” bezeichnet eine Schicht einer Erweiterte-Realität-Einrichtung, die eine Emissionsgrafik dem Auge eines Nutzers präsentieren kann. Von zwei oder mehr Schichten kann eine Emissionsanzeigeschicht am nächsten am Auge des Nutzers positioniert sein. Bei einer auf Direktansicht beruhenden Erweiterte-Realität-Einrichtung ist die Emissionsanzeigeschicht transparent für einfallendes Licht, das von einer Realweltszene stammt. Eine Emissionsanzeigeschicht ist dafür ausgelegt, Licht oder eine Färbung von mehreren Pixelorten auszustrahlen, um Muster, Formen oder Objekte in Form einer oder mehrerer Emissionsgrafiken, die für einen Nutzer erkennbar sind, zu bilden. Das ausgesandte Licht kann farbig sein.An "emissions display layer" refers to a layer of augmented reality equipment that can present an emissions graphic to a user's eye. Of two or more layers, an emission display layer may be positioned closest to the user's eye. In a direct view augmented reality facility, the emission display layer is transparent to incident light originating from a real world scene. An emission display layer is configured to emit light or a color from multiple pixel locations to form patterns, shapes, or objects in the form of one or more emission graphics recognizable to a user. The emitted light can be colored.

Eine „Dämpfungsanzeigeschicht” bezeichnet eine Schicht einer Erweiterte-Realität-Einrichtung, die eine Dämpfungsgrafik präsentieren kann, die Licht eines Realweltobjektes von einer Emissionsgrafik fernhält. Von zwei oder mehr Schichten ist eine Dämpfungsanzeigeschicht zwischen einer Emissionsanzeigeschicht und einer Realweltszene positioniert. Bei einer auf Direktansicht beruhenden Erweiterte-Realität-Einrichtung kann die Dämpfungsanzeigeschicht transparent gegenüber einfallendem Licht sein, das von einer Realweltszene stammt, oder zu verschiedenen Zeiten oder in verschiedenen Zonen im Wesentlichen opak werden. Eine Dämpfungsanzeigeschicht ist dafür ausgelegt, mehrere Pixelorte im Wesentlichen opak zu machen, um die Ansicht einer Emissionsgrafik dadurch zu unterstützen, dass Licht ferngehalten wird, das ansonsten die Emissionsgrafik infolge der Bildung eines unbeabsichtigten Hellbereiches ausbleiben würde. Bildet eine Dämpfungsanzeigeschicht eine opake Zone, die nicht hinter aktiven Pixeln einer Emissionsgrafik ist, so kann die opake Zone zu einem unbeabsichtigten Dunkelbereich führen.An "attenuation display layer" refers to a layer of augmented reality device that can present a attenuation graph that keeps light from a real world object away from an emission graph. Of two or more layers, an attenuation display layer is positioned between an emission display layer and a real world scene. In a direct view augmented reality device, the attenuation display layer may be transparent to incident light originating from a real world scene, or substantially opaque at different times or in different zones. An attenuation display layer is configured to make a plurality of pixel locations substantially opaque to the view of a pixel To support emission graphics by keeping light out, otherwise the emission graphics would fail due to the formation of an inadvertent bright area. If an attenuation display layer forms an opaque zone that is not behind active pixels of an emission graph, the opaque zone may result in an unintended dark area.

Ein „synthetisches grafisches Bild oder eine „synthetische Grafik” bezeichnet ein Diagramm, Bild, Symbol und dergleichen, das optisch wahrnehmbar und computererzeugt ist. Ein synthetisches graphisches Bild kann dadurch am Computer erstellt werden, dass es aus Vektoren, Bitmaps, Oberflächenstrukturen bzw. Texturen, dreidimensionalen Gittern bzw. Netzen und dergleichen gebildet wird. Zusätzlich oder alternativ kann ein synthetisches graphisches Bild von einem Computer verarbeitet, modifiziert oder gespeichert und in Zusammenwirkung mit anderen Bildern zum Einsatz kommen. Beispiele für synthetische grafische Bilder können eine Emissionsgrafik, eine Dämpfungsgrafik, eine Replikgrafik oder eine Kombination hieraus beinhalten.A "synthetic graphic image or" synthetic graphic "refers to a diagram, image, symbol, and the like that is visually perceptible and computer generated. A synthetic graphic image can be computer-generated by being made up of vectors, bitmaps, textures, three-dimensional grids, and the like. Additionally or alternatively, a synthetic graphical image may be processed, modified or stored by a computer and used in conjunction with other images. Examples of synthetic graphical images may include an emission graphic, a mute graphic, a replica graphic, or a combination thereof.

Eine „Emissionsgrafik” bezeichnet ein Diagramm, Bild, Symbol und dergleichen, das am Computer erzeugt ist und an einer oder durch eine Emissionsanzeigeschicht präsentiert wird. Beispiele für eine Emissionsgrafik können eine Benachrichtigung oder einen Alarmhinweis, Navigationsrichtungen oder Symbole, textartige Kommentare oder Anweisungen, eine animierte Zeichentrickfigur, Information aus einem Social Media Feed oder auch Kombinationen hieraus beinhalten. Eine Emissionsgrafik kann stehend oder in Bewegung sein. Eine Emissionsgrafik kann hier auch als Vordergrundgrafik bezeichnet werden, da die Emissionsgrafik im Vordergrund im Vergleich zur Realweltszene, die als Hintergrund dient, angezeigt wird. Gleichwohl kann eine Emissionsgrafik auch derart wiedergegeben werden, dass die Grafik mit dem Hintergrund vermischt oder in diesen integriert wird, indem beispielsweise der Anschein erweckt wird, dass sie teilweise hinter einem Objekt der Realweltszene befindlich ist. Eine Emissionsgrafik kann durch eine Hintergrundbeleuchtung ausgebleicht oder unbeabsichtigt zu hell wiedergegeben werden, wenn die Emissionsgrafik nicht von einer Dämpfungsgrafik, die die Hintergrundbeleuchtung fernhält, unterstützt wird.An "emissions graph" refers to a chart, image, symbol and the like that is generated on the computer and presented on or through an emissions display layer. Examples of an emissions graph may include a notification or alert, navigation directions or icons, textual comments or instructions, an animated cartoon character, information from a social media feed, or combinations thereof. An emission graph can be upright or in motion. An emission graph can also be called a foreground graph here because the emission graph in the foreground is displayed in comparison to the real world scene that serves as the background. However, an emissions graph may also be rendered such that the graph blends or integrates with the background, for example, by appearing to be partially behind an object of the real world scene. An emission graphic may be bleached by a backlight, or rendered unintentionally too bright if the emission graphics are not supported by a snubber image that keeps the backlight off.

Eine „Dämpfungsgrafik” bezeichnet ein Muster oder eine Form, das/die an einer oder durch eine Dämpfungsanzeigeschicht präsentiert wird. Eine Dämpfungsgrafik kann einer Emissionsgrafik zugeordnet sein, die eine Dämpfungsgrafik unterstützen soll. Eine Dämpfungsgrafik kann beispielsweise derart gebildet werden, dass sie eine im Wesentlichen ähnliche Größe und Form wie eine zugeordnete Emissionsgrafik aufweist. Die Dämpfungsgrafik ist im Wesentlichen opak, sodass das Licht, das von einem Realweltobjekt stammt und durch die Dämpfungsgrafik ferngehalten wird, verhindern kann, dass sich ein unbeabsichtigter Hellbereich über wenigstens einem Teil einer zugeordneten Emissionsgrafik bildet.An "attenuation graph" refers to a pattern or shape presented at or through a damping display layer. An attenuation graph may be associated with an emission graph that is intended to support an attenuation graph. For example, an attenuation graph may be formed to have a substantially similar size and shape to an associated emission graph. The attenuation graph is substantially opaque, such that the light originating from a real world object and kept away by the attenuation graph can prevent an unintended bright area from forming over at least a portion of an associated emission graph.

Eine „Replikgrafik” bezeichnet eine Grafik, die an einer oder durch eine Emissionsanzeigeschicht präsentiert wird. Eine Replikgrafik wird erzeugt, um das Aussehen einer Realweltszene zu reproduzieren. Eine Replikgrafik kann beispielsweise den Helligkeitspegel oder die Färbung in einem bestimmten Bildbereich simulieren. Eine Replikgrafik kann dazu verwendet werden, einen unbeabsichtigten Dunkelbereich zu kaschieren. Daten, die den Pixeln einer Replikgrafik Werte zuweisen, können von einer Kamera, die auf die Realweltszene gerichtet ist, bezogen werden.A "replica graphic" refers to a graphic presented on or through an emissions display layer. A replica artwork is created to reproduce the look of a real world scene. For example, a replica graphic can simulate the brightness level or the coloration in a particular image area. A replica graphic can be used to hide an unintended dark area. Data that assigns values to the pixels of a replica graph can be obtained from a camera that targets the real world scene.

Eine „Kamera” bezeichnet eine Vorrichtung oder Komponente, die einen Sensor beinhaltet, der Licht detektieren kann. Der Lichtsensor kann detektiertes Licht in Daten umwandeln, die das Aussehen der Quelle oder des Ursprungs des Lichtes, so beispielsweise einer Realweltszene, darstellen. Das „Aussehen einer Realweltszene” bezeichnet den Umstand, wie eine Realweltszene visuell aussieht. Das Aussehen eines Bereiches einer Realweltszene kann allgemein einen Helligkeitspegel oder auch Färbungsdetails für spezifische Pixel oder Pixelgruppen betreffen, die beide zum Kaschieren eines unbeabsichtigten Dunkelbereiches verwendet werden können.A "camera" refers to a device or component that includes a sensor that can detect light. The light sensor may convert detected light into data representing the appearance of the source or origin of the light, such as a real world scene. The "look of a real world scene" refers to how a real world scene looks visually. The appearance of an area of a real world scene may generally relate to a brightness level or coloring details for specific pixels or groups of pixels, both of which may be used to conceal an unintended dark area.

Ein „Attribut des Auges” bezeichnet einen bestimmten Aspekt des Auges eines Nutzers einer Erweiterte-Realität-Einrichtung. Das Attribut kann eine Änderungsquantität oder einen Aspekt in Abhängigkeit von der Zeit erfassen, kann eine Momentaufnahme einer sich ändernden Quantität beinhalten, kann eine konstante Eigenschaft beinhalten und dergleichen mehr. Beispiele können einen Wert beinhalten, der die Größe eines Auges, die Richtung eines festen Blickes oder die Bewegung des Auges oder auch die Fokaltiefe des Auges angibt.An "attribute of the eye" refers to a particular aspect of the eye of a user of an augmented reality device. The attribute may capture a change quantity or an aspect as a function of time, may include a snapshot of a changing quantity, may include a constant property, and the like. Examples may include a value indicating the size of an eye, the direction of a fixed eye or the movement of the eye, or the depth of focus of the eye.

Ein „Wert, der die Größe eines Auges angibt” bezeichnet ein bestimmbares Maß eines bestimmten Aspektes des Auges. Ein Wert, der beispielsweise die Größe des Auges angibt, kann den Radius der Pupille eines Auges oder gleichermaßen dessen Durchmesser betreffen. Eine „Richtung eines festen Blickes oder eine Bewegung” bezeichnet den Umstand, wo, unter welchem Winkel und auf welches Objekt ein Auge schaut, was es nachverfolgt oder wohin es schaut. Eine „Fokaltiefe” bezeichnet einen Abstand oder eine Ebene, unter dem/der ein oder beide Augen beobachtbare Details deutlich wiedergeben, so beispielsweise eine Person auf der anderen Seite eines Tisches oder einen Berg auf der anderen Seite eines Tales.A "value indicating the size of an eye" denotes a determinable measure of a particular aspect of the eye. A value indicating, for example, the size of the eye may relate to the radius of the pupil of an eye, or equally its diameter. A "direction of a fixed glance or a movement" refers to the circumstance where, under what angle and on which object an eye looks, what it tracks or where it looks. A "focal depth" refers to a distance or plane below which one or both eyes clearly reflect observable details, such as a person on the other side of a Table or a mountain on the other side of a valley.

Die Verwendung des Wortes „oder” kann im Sinne des Vorliegenden – es sei denn, es ist explizit anders angegeben – ein „einschließendes Oder” oder einen Begriff bezeichnen, der eine Einschließung oder Anwendung eines oder mehrerer Objekte erlaubt, die durch das Wort „oder” verknüpft sind (So kann der Ausdruck „A oder B” beispielsweise derart gedeutet werden, dass er nur „A”, nur „B” oder sowohl „A” wie auch „B” betrifft oder hierfür von Belang ist).The use of the word "or" as used herein may, unless explicitly stated otherwise, signify an "inclusive or" or a term that permits inclusion or application of one or more objects represented by the word "or (For example, the term "A or B" may be interpreted to mean only "A", "B", or both "A" and "B", or is relevant thereto).

Exemplarische UmgebungExemplary environment

1 zeigt eine Umgebung 100 für exemplarische Ausführungsformen, die betrieben werden können, um die hier beschriebenen Techniken einzusetzen, die eine Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System betreffen. Wie dargestellt ist, beinhaltet die exemplarische Umgebung 100 eine Realweltszene 102, eine Emissionsgrafik 104 und eine zusammengesetzte Bildansicht 106. Die Umgebung 100 beinhaltet des Weiteren eine Erweiterte-Realität-Einrichtung 108, einen Nutzer 110 und eine Rechenvorrichtung 112. Die Rechenvorrichtung 112 beinhaltet ein Verarbeitungssystem 114 und einen Speicher 116. Der Speicher 116 beinhaltet ein Bildkompensationsmodul 118. Exemplarische Implementierungen für die Rechenvorrichtung 112 werden später in diesem Abschnitt sowie weiter anhand 21 beschrieben. 1 shows an environment 100 for exemplary embodiments that may be operated to employ the techniques described herein relating to image compensation for a masking, direct view augmented reality system. As illustrated, the exemplary environment includes 100 a real world scene 102 , an emission chart 104 and a composite picture view 106 , The environment 100 further includes an augmented reality facility 108 , a user 110 and a computing device 112 , The computing device 112 includes a processing system 114 and a memory 116 , The memory 116 includes an image compensation module 118 , Exemplary implementations for the computing device 112 will be discussed later in this section as well 21 described.

Bei exemplarischen Ausführungsformen ist die Erweiterte-Realität-Einrichtung 108 als durchschauartige und auf Direktansicht beruhende Erweiterte-Realität-Einrichtung implementiert. Der Nutzer 110 sieht primär direkt die Realweltszene 102, indem er Licht empfängt, das von Realweltobjekten (beispielsweise infolge von Ausstrahlung oder Reflexion) stammt. Die Erweiterte-Realität-Einrichtung 108 kann wenigstens eine Emissionsgrafik 104 zu der Realweltszene 102 hinzufügen. Augen und Gehirn eines Nutzers kombinieren die Realweltszene 102 und die Emissionsgrafik 104 zu einer scheinbar zusammengesetzten Bildansicht 106.In exemplary embodiments, the augmented reality facility is 108 implemented as a walkthrough and direct view based augmented reality facility. The user 110 primarily looks directly at the real world scene 102 by receiving light originating from real-world objects (for example, due to aura or reflection). The augmented reality facility 108 can at least one emission graph 104 to the real world scene 102 Add. A user's eyes and brain combine the real world scene 102 and the emission graph 104 to a seemingly composite picture view 106 ,

Die Emissionsgrafik 104 ist ein computererzeugter synthetischer Inhalt, der Information für den Nutzer 110 bereitstellt. Die Emissionsgrafik 104 kann Text, wenigstens ein Schriftzeichen, wenigstens ein Symbol, wenigstens ein Design, wenigstens ein Objekt, oder eine Kombination hieraus beinhalten. Obwohl die Emissionsgrafik 104 computererzeugt und in Bezug auf die aktuelle Realweltszene 102 synthetisch ist, kann die Emissionsgrafik 104 Fotos, Videos oder Teile hiervon von anderen Realweltobjekten zusätzlich zu Inhalt, der am Computer erstellt ist, beinhalten. Mit anderen Worten, zusätzlich zu computererstellten Bildern, die aus Vektoren, dreidimensionalen Drahtgittern bzw. Drahtnetzen mit Texturoberflächen, Zeichensätzen und dergleichen hergeleitet sind, kann eine angezeigte Emissionsgrafik 104 auch solche Bilder beinhalten, die unter Verwendung eines Kamerasensors aufgenommen sind. In Teilen der vorliegenden Beschreibung wird zu Zwecken der Vereinfachung die Realweltszene 102 als Hintergrund oder Hintergrundbild bezeichnet, während die Emissionsgrafik 104 als Vordergrund oder Vordergrundbild bezeichnet wird. Die beschriebenen Prinzipien sind jedoch auch in Situationen anwendbar, in denen die Emissionsgrafik 104 in einer bestimmten Tiefe der betrachteten Szene eingefügt ist und daher erscheint, als sei sie im Hintergrund befindlich.The emission graph 104 is a computer-generated synthetic content that provides information to the user 110 provides. The emission graph 104 may include text, at least one character, at least one symbol, at least one design, at least one object, or a combination thereof. Although the emission graph 104 computer generated and in relation to the current real world scene 102 is synthetic, can the emission graph 104 Include photos, videos or parts thereof of other real world objects in addition to content created on the computer. In other words, in addition to computer-generated images derived from vectors, three-dimensional wireframes with texture surfaces, fonts, and the like, a displayed emission graph 104 also include images taken using a camera sensor. In parts of the present description, for purposes of simplicity, the real world scene will be described 102 called background or wallpaper while the emission graph 104 is called foreground or foreground picture. However, the described principles are also applicable in situations where the emission graph 104 is inserted at a certain depth of the scene under consideration and therefore appears to be in the background.

Die Rechenvorrichtung 112 kann als beliebiger geeigneter Typ von Rechenvorrichtung implementiert sein. Die Rechenvorrichtung 112 kann mit dem Ansichtsabschnitt der Erweiterte-Realität-Einrichtung 108 integriert oder auch davon getrennt sein. Bei einigen Ausführungsformen, bei denen eine getrennte Integration gegeben ist, können die Erweiterte-Realität-Einrichtung 108 und die Rechenvorrichtung 112 kommunikativ verdrahtet oder drahtlos gekoppelt sein. Des Weiteren kann die Rechenvorrichtung 112 als lokal zur Verfügung stehende Vorrichtung implementiert sein, so beispielsweise als Mobiltelefon oder Spielkonsole, oder auch als ortsferne zur Verfügung stehende Vorrichtung, so beispielsweise als Internetserver oder Fahrzeugcomputer. Implementierungen der Rechenvorrichtung 112 können daher von über vergleichsweise große Ressourcen verfügenden Vorrichtungen mit beträchtlichen Speicher- und Prozessorressourcen (beispielsweise Mobiltelefonen oder ortsfernen Servern) bis zu über vergleichsweise geringe Ressourcen verfügenden Vorrichtungen mit beschränkten Speicher- oder Verarbeitungsressourcen (beispielsweise tragbare Erweiterte-Realität-Brillen) reichen.The computing device 112 can be implemented as any suitable type of computing device. The computing device 112 can with the view section of the augmented reality facility 108 integrated or separated from it. In some embodiments, where there is separate integration, the augmented reality facility may 108 and the computing device 112 communicatively wired or wirelessly coupled. Furthermore, the computing device 112 be implemented as a locally available device, such as a mobile phone or game console, or as a remote device available, such as an Internet server or vehicle computer. Implementations of the computing device 112 As such, they may range from relatively large resource devices with significant memory and processor resources (e.g., cell phones or remote servers) to relatively low resource devices with limited storage or processing resources (e.g., extended-reality augmented glasses).

Die Rechenvorrichtung 112 ist derart dargestellt, dass sie eine Vielzahl von Hardwarekomponenten beinhaltet, wovon Beispiele ein Verarbeitungssystem 114, ein Beispiel für ein computerlesbares Speichermedium, das als Speicher 116 dargestellt ist, und dergleichen mehr beinhalten. Andere Hardwarekomponenten sind ebenfalls so, wie sie nachstehend anhand 21 beschrieben sind, einbezogen. Das Verarbeitungssystem 114 stellt eine Funktionalität zur Durchführung von Betriebsvorgängen mittels Ausführung von Anweisungen, die in dem Speicher 116 gespeichert sind, bereit. Bei exemplarischen Implementierungen befindet sich ein Bildkompensationsmodul 118 in der Rechenvorrichtung 112 oder wird dort derart betrieben, dass es Teil einer größeren Programmanwendung (nicht gezeigt) ist, die für einen Nutzer Erweiterte-Realität-Funktionen bereitstellen kann. Das Bildkompensationsmodul 118 stellt eine Funktionalität zum Implementieren von Schemen und Techniken zur Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System, wie es hier beschrieben wird, dar. Implementiert sein kann das Bildkompensationsmodul 118 wenigstens als Teil einer Softwarepackung, die auf einem oder mehreren Prozessoren ausgeführt wird und diese speziell konfiguriert, wobei die Prozessoren physisch das Verarbeitungssystem 114 realisieren können; als Hardwareeinrichtung, die als anwendungsspezifische integrierte Schaltung (ASIC) oder als Rechenvorrichtung 112 verwirklicht sein kann, oder unter Verwendung einer Kombination aus Software, Hardware, Firmware oder einer festen logischen Schaltung, als beliebige Kombination hieraus und dergleichen mehr. Beispiele für Hardware und zugehörige Logik werden nachstehend insbesondere anhand 21 beschrieben.The computing device 112 is illustrated as including a variety of hardware components, examples of which are a processing system 114 , an example of a computer-readable storage medium used as storage 116 and more. Other hardware components are also as described below 21 are included. The processing system 114 provides functionality for performing operations by executing instructions stored in the memory 116 are stored, ready. Exemplary implementations include an image compensation module 118 in the computing device 112 or operated there such that it is part of a larger program application (not shown) that can provide augmented reality capabilities to a user. The image compensation module 118 provides functionality to implement of schemes and techniques for image compensation for a masking, direct view augmented reality system as described herein. The image compensation module may be implemented 118 at least as part of a software package running on and specifically configuring one or more processors, the processors physically hosting the processing system 114 can realize; as a hardware device, as an application specific integrated circuit (ASIC) or as a computing device 112 can be realized, or using a combination of software, hardware, firmware or a fixed logic circuit, as any combination thereof, and the like. Examples of hardware and associated logic are set forth below in particular 21 described.

2 zeigt allgemein bei 200 ein Beispiel für simulierte Bilder einer Realweltszene 102 und einer verdeckenden synthetischen Grafik, die zu einer kompensierten Bildansicht 106 zusammengesetzt sind. Die Bilder von 1 sind als schematische Diagramme dargestellt. Im Gegensatz hierzu sind die Bilder von 2 als simulierte Bilder dargestellt. Der Nutzer 110 schaut durch die Erweiterte-Realität-Einrichtung 108 auf die Realweltszene 102, die eine hinzugefügte Emissionsgrafik 104 aufweist, um so die zusammengesetzte Bildansicht 106 zu produzieren. Die zusammengesetzte Bildansicht 106 von 2 stellt eine zusammengesetzte Bildansicht dar, die nicht so aussieht, dass sie einen unbeabsichtigten Hellbereich oder einen unbeabsichtigten Dunkelbereich aufweist. Die exemplarische Realweltszene 102 für die simulierten Bilder ist eine Strandszene mit Sand, Meer und einer interessanten Felsformation. Die exemplarische Emissionsgrafik 104 für die simulierten Bilder ist das Statussymbol eines Ruftones (ringer), wie es beispielsweise für das iPhone® von Apple Inc. aus Cupertino, Kalifornien produziert wird. 2 generally indicates 200 an example of simulated pictures of a real world scene 102 and a masking synthetic graphic leading to a compensated picture view 106 are composed. The pictures of 1 are shown as schematic diagrams. In contrast, the pictures are from 2 shown as simulated pictures. The user 110 Look through the augmented reality setup 108 on the real world scene 102 containing an added emission graph 104 so as to have the composite image view 106 to produce. The composite picture view 106 from 2 represents a composite image view that does not appear to have an inadvertent light area or an unintended dark area. The exemplary real world scene 102 For the simulated pictures is a beach scene with sand, sea and an interesting rock formation. The exemplary emission graph 104 for the simulated images is the status symbol of a ringer (ringer), how it is produced, for example, for the iPhone ® from Apple Inc. of Cupertino, California.

Systeme und TechnikenSystems and techniques

Der vorliegende Abschnitt beschreibt exemplarische Details für Systeme und Techniken zur Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System entsprechend einer oder mehreren Ausführungsformen.The present section describes exemplary details for systems and techniques for image compensation for a masking, direct view augmented reality system, according to one or more embodiments.

3 zeigt eine Umgebung 300 mit einer exemplarischen Erweiterte-Realität-Einrichtung 108, die eine Durchschau-Emissionsanzeigeschicht 306 und eine Dämpfungsanzeigeschicht 308 beinhaltet. Die Umgebung 300 beinhaltet des Weiteren ein Auge 302 eines Nutzers (nicht gezeigt) und ein Realweltobjekt 304 einer Realweltszene 102 (siehe 1). Die Erweiterte-Realität-Einrichtung 108 ist zwischen dem Auge 302 und dem Realweltobjekt 304 positioniert. Die Emissionsanzeigeschicht 306 ist zwischen dem Auge 302 und der Dämpfungsanzeigeschicht 308 positioniert. Die Dämpfungsanzeigeschicht 308 ist zwischen der Emissionsanzeigeschicht 306 und dem Realweltobjekt 304 positioniert. 3 shows an environment 300 with an exemplary augmented reality facility 108 , which is a see-through emission display layer 306 and a damping display layer 308 includes. The environment 300 further includes an eye 302 a user (not shown) and a real world object 304 a real world scene 102 (please refer 1 ). The augmented reality facility 108 is between the eye 302 and the real world object 304 positioned. The emission display layer 306 is between the eye 302 and the damping display layer 308 positioned. The damping display layer 308 is between the emission display layer 306 and the real world object 304 positioned.

Mehrere Lichtstrahlen 314 sind ebenfalls in 3 gezeigt. Die mehreren Lichtstrahlen 314 stammen (infolge von Ausbreitung oder Reflexion) von dem Realweltobjekt 304. Die Lichtstrahlen 314 gelangen durch transparente Abschnitte der Emissionsanzeigeschicht 306 und der Dämpfungsanzeigeschicht 308 und sollen von dem Auge 302 detektiert werden. In Zonen, die aktuell keine Grafik anzeigen, können die Emissionsanzeigeschicht 306 und die Dämpfungsanzeigeschicht 308 transparent für die Lichtstrahlen 314 gemacht werden. Derartige transparente Abschnitte werden durch die Intensitätsabbildung bzw. Karte und die Dämpfungslagen, die in 7 ff dargestellt sind, bezeichnet. Für das Auge 302 erscheint eine Grafik, die auf der Emissionsanzeigeschicht 306 vorhanden ist, so, als sei sie in einem gewissen Abstand vom Nutzer als virtuelles Bild 312 einer Emissionsanzeige befindlich.Several beams of light 314 are also in 3 shown. The multiple beams of light 314 originate (due to propagation or reflection) from the real world object 304 , The rays of light 314 pass through transparent portions of the emission display layer 306 and the damping display layer 308 and should be from the eye 302 be detected. In zones that do not currently display a graph, the emission display layer may 306 and the damping display layer 308 transparent to the light rays 314 be made. Such transparent portions are detected by the intensity map and the damping layers shown in FIG 7 ff, respectively. For the eye 302 a graphic appears on the emission display layer 306 is present, as if it were at a certain distance from the user as a virtual image 312 an emission advertisement.

Bei exemplarischen Ausführungsformen weist die Dämpfungsanzeigeschicht 308 eine niedrigere Auflösung als die Emissionsanzeigeschicht 306 auf. Obwohl die Anzeige für die Emissionsanzeigeschicht 306 von dem Auge 302 in einem ortsfernen Fokalabstand so, wie er in der Emissionsanzeigeschicht 306 ausgestaltet ist, gesehen wird, wird die Dämpfungsanzeigeschicht 308 außerhalb des Fokus infolge der Positionierung der Dämpfungsanzeigeschicht 308 hinter der Emissionsanzeigeschicht 306 in Zusammenwirkung mit dem Pupillendurchmesser des Auges des Nutzers gesehen. Wird die Dämpfungsanzeigeschicht 308 verwendet, um den Alphakanal oder die Lage für die Emissionsgrafik 104 direkt anzuzeigen, so wird das sich ergebende Bild, das an der Netzhaut des beobachtenden Nutzers gebildet wird, durch die Dämpfungsanzeigeschicht 308, die außerhalb des Fokus ist, sogar dann gedämpft, wenn die Ansicht der Welt im Fokus ist. Dies kann dadurch nachempfunden werden, dass ein Finger in die Nähe des Auges gehalten wird, während ein weit entferntes Objekt anfokussiert wird. Der Rand des verdeckenden Fingers erscheint unscharf, während das weit entfernte Objekt, das im Fokus ist, klar (crisp) ist. Der Zustand außerhalb des Fokus wird nachstehend anhand 5A und 5B beschrieben, wobei die Gegebenheiten mit Techniken verbessert werden können, die anhand 9 bis 12B beschrieben sind.In exemplary embodiments, the attenuator display layer 308 a lower resolution than the emission display layer 306 on. Although the indicator for the emission display layer 306 from the eye 302 at a focally distant focal distance as it is in the emission display layer 306 is designed, becomes the attenuation display layer 308 out of focus due to the positioning of the attenuation indicating layer 308 behind the emission display layer 306 seen in conjunction with the pupil diameter of the user's eye. Will the damping display layer 308 used to select the alpha channel or the location for the emission graph 104 directly display, the resulting image formed on the retina of the watching user through the attenuation display layer 308 Being out of focus, even muted when the view of the world is in focus. This can be simulated by holding a finger close to the eye while focusing on a distant object. The edge of the masking finger appears out of focus, while the faraway object that is in focus is crisp. The state out of focus is explained below 5A and 5B The situation can be improved with techniques based on 9 to 12B are described.

Die Kamera 310 ist derart gezeigt, dass sie mit der Erweiterte-Realität-Einrichtung 108 integriert ist. Die Kamera 310 kann von der Erweiterte-Realität-Einrichtung 108 getrennt und mit dieser drahtlos oder verdrahtet gekoppelt sein. Die Kamera 310 beinhaltet einen oder mehrere Sensoren, so beispielsweise eine CCD-Vorrichtung (Charge-Coupled Device CDD) oder einen CMOS-Bildsensor (Complementary Metal-Oxide Semiconductor CMOS). Im Betrieb detektiert die Kamera 310 Lichtstrahlen 314, die von dem Realweltobjekt 304 stammen, und produziert Daten, die die Lichtstrahlen 314 darstellen. Wie nachstehend noch beschrieben wird, können die Daten dafür verwendet werden, einen unbeabsichtigten Dunkelbereich so, wie er aus der Perspektive des Auges 302 gesehen wird, infolge einer Dämpfungsgrafik, die an der Dämpfungsanzeigeschicht 308 präsentiert wird, zu kompensieren und die entsprechenden Lichtstrahlen 314 von dem Auge 302 fernzuhalten.The camera 310 is shown as having the augmented reality facility 108 is integrated. The camera 310 can be from the augmented reality facility 108 disconnected and coupled to it wirelessly or wired. The camera 310 includes one or more sensors, such as a CCD (Charge-Coupled Device CDD) device or a CMOS image sensor (Complementary Metal-Oxide Semiconductor CMOS). During operation, the camera detects 310 light rays 314 that of the real world object 304 come from, and produces data that the light rays 314 represent. As will be described below, the data may be used to indicate an unintended dark area as viewed from the perspective of the eye 302 due to an attenuation graph attached to the attenuation display layer 308 is presented, compensate and the corresponding light rays 314 from the eye 302 keep.

4A und 4B zeigen allgemein bei 400A und 400B ein erstes visuelles Zusammensetzungsproblem. Das erste visuelle Zusammensetzungsproblem ergibt sich bei einer Erweiterte-Realität-Einrichtung, die mit einer Emissionsanzeigeschicht 306, jedoch ohne eine Dämpfungsanzeigeschicht arbeitet. Infolgedessen wird die Emissionsgrafik 104 durch die Hintergrundbeleuchtung aus der Realweltszene ausgebleicht. 4A zeigt die Emissionsanzeigeschicht 306 in einer freigeschnittenen Seitenansicht, wobei die Emissionsgrafik 104 darin angezeigt ist. 4A zeigt zudem zwei exemplarische zusammengesetzte Bildansichten 402, die einen unerwünschten Bildartefakt zeigen. Insbesondere wird die Emissionsgrafik 104 derart gezeigt, dass sie übermäßig hell und daher schwer zu sehen ist, da die Hintergrundbeleuchtung die Emissionsgrafik 104 ausbleicht. Die exemplarische schematische zusammengesetzte Bildansicht 402 ist auf der linken Seite, während die exemplarische simulierte zusammengesetzte Bildansicht 402 auf der rechten Seite ist. 4B stellt eine vergrößerte Ansicht der simulierten zusammengesetzten Bildansicht 402 dar. Wie in 4B gezeigt ist, ist das ausgebleichte Aussehen der Emissionsgrafik 104 klar zu sehen. Vorteilhafterweise kann die Einbeziehung der Dämpfungsgrafik in eine Dämpfungsanzeigeschicht einen Großteil des ausgebleichten Aussehens der Emissionsgrafik 104, wie in 5A und 5B gezeigt ist, mildern. 4A and 4B generally indicate 400A and 400B a first visual composition problem. The first visual composition problem arises in an augmented reality device that has an emission display layer 306 but works without a damping display layer. As a result, the emission chart becomes 104 bleached by the backlight from the real world scene. 4A shows the emission display layer 306 in a cut-away side view, showing the emission graph 104 is displayed therein. 4A also shows two exemplary composite image views 402 that show an unwanted image artifact. In particular, the emission graph 104 shown so that it is excessively bright and therefore difficult to see because the backlight is the emission graph 104 fades. The exemplary schematic composite image view 402 is on the left while the exemplary simulated composite image view 402 is on the right side. 4B provides an enlarged view of the simulated composite image view 402 as in 4B shown is the faded appearance of the emission graph 104 to see clearly. Advantageously, the inclusion of the attenuation graph in an attenuation display layer can account for much of the blurred appearance of the emission graph 104 , as in 5A and 5B shown, mitigate.

5A und 5B zeigen bei 500A und 500B ein zweites visuelles Zusammensetzungsproblem. Das zweite visuelle Zusammensetzungsproblem ergibt sich bei einer Erweiterte-Realität-Einrichtung, die mit einer direkten Implementierung einer Emissionsanzeigeschicht 306 und einer Dämpfungsanzeigeschicht 308 arbeitet. Eine derartige Situation produziert einen unbeabsichtigten Hellbereich 502 und einen unbeabsichtigten Dunkelbereich 506. Diese unerwünschten Bildartefakte sind in zwei exemplarischen zusammengesetzten Bildansichten 508 gezeigt. 5A zeigt zudem die Emissionsanzeigeschicht 306 und die Dämpfungsanzeigeschicht 308 in einer freigeschnittenen Seitenansicht. Die Emissionsanzeigeschicht 306 zeigt eine Emissionsgrafik 104 an, während die Dämpfungsanzeigeschicht 308 eine Dämpfungsgrafik 504 anzeigt. Bei dieser direkten Implementierung ist die Dämpfungsgrafik 504 in derselben Größe wie die Emissionsgrafik 104 angezeigt. 5A and 5B show 500A and 500B a second visual composition problem. The second visual composition problem arises in an augmented reality facility that involves a direct implementation of an emissions display layer 306 and a damping display layer 308 is working. Such a situation produces an unintended bright area 502 and an unintended dark area 506 , These unwanted image artifacts are in two exemplary composite image views 508 shown. 5A also shows the emission display layer 306 and the damping display layer 308 in a cutaway side view. The emission display layer 306 shows an emission graph 104 while the damping display layer 308 a damping graph 504 displays. In this direct implementation, the attenuation graph is 504 the same size as the emission chart 104 displayed.

Die Dämpfungsgrafik 504 hält einen Großteil der Hintergrundbeleuchtung von der Emissionsgrafik 104 fern. Dies verhindert, dass die Hintergrundbeleuchtung die Emissionsgrafik 104 vollständig ausbleicht, was die in 4A und 4B als erstes visuelles Zusammensetzungsproblem gezeigte Gegebenheit ist. Nachteiligerweise ist mit der direkten Einbeziehung der Dämpfungsgrafik 504 ein zweites Problem entstanden. Insbesondere werden Bereiche mit unerwünschtem Aussehen, so beispielsweise mit einem unbeabsichtigten Hellbereich 502 und einem unbeabsichtigten Dunkelbereich 506, wie in 5A und 5B gezeigt ist, produziert. Eine exemplarische schematische zusammengesetzte Bildansicht 508 ist auf der linken Seite gezeigt, während eine exemplarische simulierte zusammengesetzte Bildansicht 508 auf der rechten Seite gezeigt ist. 5B zeigt eine vergrößerte Ansicht der simulierten zusammengesetzten Bildansicht 508. Wie in 5B gezeigt ist, sind die unbeabsichtigten Hell- und Dunkelbereiche klar sichtbar. Wie dargestellt ist, entwickeln sich der unbeabsichtigte Hellbereich 502 und der unbeabsichtigte Dunkelbereich 506 in der Umgebung der Emissionsgrafik 104. Der unbeabsichtigte Hellbereich 502 manifestiert sich als innerer Hellhof, während sich der unbeabsichtigte Dunkelbereich 506 als äußerer Dunkelhof manifestiert.The attenuation graph 504 keeps much of the backlight from the emission graph 104 remote. This prevents the backlight from the emission graph 104 completely fade, what the in 4A and 4B is the givenness shown as the first visual composition problem. The disadvantage is with the direct inclusion of the attenuation graph 504 a second problem arose. In particular, areas with undesirable appearance, such as with an unintentional bright area 502 and an unintended dark area 506 , as in 5A and 5B shown is produced. An exemplary schematic composite image view 508 is shown on the left, while an exemplary simulated composite image view 508 shown on the right. 5B shows an enlarged view of the simulated composite image view 508 , As in 5B is shown, the unintentional light and dark areas are clearly visible. As shown, the unintentional bright area develops 502 and the unintentional dark area 506 in the vicinity of the emission graphics 104 , The unintentional bright area 502 manifests as inner Hellhof, while the unintentional dark area 506 manifested as an outer dark court.

Diese beiden Höfe (für die die Bereiche 502 und 506 Beispiele sind) folgen wenigstens einem Abschnitt einer Grenze der Emissionsgrafik 104. Die Höfe sind Bildartefakte, die sich aus der außerhalb des Fokus befindlichen Dämpfungsanzeigeschicht 308 ergeben. Der Innenrand der Emissionsgrafik 104 kann zu hell erscheinen, da der Hintergrund nicht vollständig durch die außerhalb des Fokus befindliche Dämpfungsanzeigeschicht 308 verdunkelt wird. Darüber hinaus kann über die Grenze der Emissionsgrafik 104 hinausgehend der Hintergrund zu dunkel erscheinen, da die unscharfe Dämpfungsschicht einen Teil des Hintergrundes, der nicht gedämpft werden soll, verdunkelt. Obwohl gewisse hier beschriebene Implementierungen einen unbeabsichtigten Hellbereich 502 oder einen unbeabsichtigten Dunkelbereich 506 in der Umgebung einer Emissionsgrafik 104 oder als Hof manifestiert betreffen, sind die hier beschriebenen Prinzipien auch bei unbeabsichtigten Hell- und Dunkelbereichen mit anderen Ursachen, Orten oder Formen anwendbar.These two farms (for the areas 502 and 506 Examples are) follow at least a portion of a border of the emission graph 104 , The courtyards are image artifacts resulting from the out-of-focus attenuation display layer 308 result. The inner edge of the emission graph 104 may appear too bright because the background is not completely out of the out of focus attenuation display layer 308 is darkened. In addition, beyond the limit of emission graphics 104 In addition, the background may appear too dark because the fuzzy attenuation layer obscures a portion of the background that is not to be attenuated. Although certain implementations described herein have an inadvertent bright area 502 or an unintended dark area 506 in the vicinity of an emission graph 104 or manifested as court, the principles described herein are applicable to unintentional light and dark areas with other causes, locations or shapes.

6 zeigt ein Beispiel für ein Bildkompensationsmodul 118. Das Bildkompensationsmodul 118 beinhaltet ein Synthetische-Grafik-Modul 602, ein Hellbereichskompensationsmodul 604, ein Dunkelbereichskompensationsmodul 606 und ein Anzeigemodul 608. Ein oder mehrere der genannten Module können wenigstens teilweise in Hardware implementiert sein, so beispielsweise mit einem Verarbeitungssystem und einem computerlesbaren Speichermedium, wie anhand 21 noch beschrieben wird. Bei exemplarischen Ausführungsformen erzeugt das Synthetische-Grafik-Modul 602 eine Emissionsgrafik 104 und eine Anfangsversion einer Dämpfungsgrafik 504 auf Grundlage der Emissionsgrafik 104. Das Hellbereichskompensationsmodul 604 kompensiert einen unbeabsichtigten Hellbereich 502 durch Ergänzen der Anfangsversion der Dämpfungsgrafik 504 zum Produzieren einer erweiterten Dämpfungsgrafik 804 (siehe 8). Die Ergänzung beruht auf einem Attribut des Auges des Nutzers, so beispielsweise dem Radius der Pupille des Auges. 7 bis 9 betreffen Implementierungen des Synthetische-Grafik-Moduls 602 und des Hellbereichskompensationsmoduls 604. 6 shows an example of an image compensation module 118 , The image compensation module 118 includes a synthetic graphics module 602 , a bright area compensation module 604 , a dark area compensation module 606 and a display module 608 , One or more of the mentioned Modules may be implemented, at least in part, in hardware, such as a processing system and a computer-readable storage medium as described 21 will be described. In exemplary embodiments, the synthetic graphics module generates 602 an emission graph 104 and an initial version of a damping graph 504 based on the emission graph 104 , The bright area compensation module 604 compensates for an unintentional bright area 502 by adding the initial version of the attenuation graph 504 to produce an expanded attenuation graph 804 (please refer 8th ). The supplement is based on an attribute of the user's eye, such as the radius of the pupil of the eye. 7 to 9 relate to implementations of the Synthetic Graphics Module 602 and the bright area compensation module 604 ,

Das Dunkelbereichskompensationsmodul 606 kompensiert einen unbeabsichtigten Dunkelbereich 506 durch Hinzufügen von Pixeln zu der Emissionsanzeigeschicht 306, die das Licht repliziert, das durch die Dämpfungsanzeigeschicht 308 ferngehalten wird, jedoch von Pixeln nicht abgedeckt wird, die an der Emissionsanzeigeschicht 306 angezeigt werden. Es können beispielsweise replizierende Pixel angezeigt werden, die das Licht reproduzieren, das durch eine erweiterte Version der Dämpfungsgrafik 504 oder der erweiterten Dämpfungsgrafik 804 ferngehalten wird. Die Lichtreproduktion kann das Nachahmen des Helligkeitspegels oder des Aussehens der Realweltszene 102 implizieren. Die Außerhalb-des-Fokus-Eigenschaft der Dämpfungsgrafik 504 oder 804 kann durch Defokussieren oder Unscharfmachen einer Dämpfungslage bewerkstelligt werden, die der Dämpfungsgrafik 504 oder 804 entspricht, bevor eine Repliklage erstellt wird, die eine Zone definiert, in der Replikpixel erzeugt werden. Das Anzeigemodul 608 kann die Emissionsanzeigeschicht 306 und die Dämpfungsanzeigeschicht 308 derart steuern bzw. regeln, dass die Emissionsgrafik 104, die erweiterte Dämpfungsgrafik 804 und Pixel einer Replikgrafik geeignet angezeigt werden. 10 bis 13 betreffen Implementierungen des Dunkelbereichskompensationsmoduls 606 und des Anzeigemoduls 608.The dark area compensation module 606 compensates for an unintended dark area 506 by adding pixels to the emission display layer 306 which replicates the light passing through the attenuation indicating layer 308 is kept away, but is not covered by pixels at the emission display layer 306 are displayed. For example, replicating pixels that reproduce the light may be displayed by an enhanced version of the attenuation graph 504 or the expanded attenuation graph 804 is kept away. The light reproduction can be the imitation of the brightness level or the appearance of the real world scene 102 imply. The out-of-focus property of the attenuation graph 504 or 804 can be accomplished by defocusing or blurring an attenuation layer, that of the attenuation graph 504 or 804 matches before creating a replica layer that defines a zone in which replica pixels are created. The display module 608 can the emission display layer 306 and the damping display layer 308 so control or regulate that the emission graph 104 , the advanced attenuation graph 804 and pixels of a replica graphic are displayed appropriately. 10 to 13 pertain to implementations of the dark area compensation module 606 and the display module 608 ,

7 zeigt allgemein bei 700 exemplarische Aspekte zum Anzeigen einer Emissionsgrafik 104 und einer Dämpfungsgrafik. Ein Beispiel für eine Intensitätsabbildung bzw. Karte 702 für die Emissionsschicht ist in der oberen Hälfte von 4 dargestellt, während ein Beispiel für eine scharfe Dämpfungslage 704 in der unteren Hälfte dargestellt ist. Die Intensitätsabbildung bzw. Karte 702 ist an Orten schwarz oder dunkel, an denen keine Pixel in der Emissionsanzeigeschicht 306 (siehe 3) angezeigt oder gefärbt werden sollen. Das Synthetische-Grafik-Modul 602 macht daher die Intensitätsabbildung bzw. Karte 702 mit Ausnahme der Stelle einer Zone der Grafik 104, die entsprechend der beabsichtigten Emissionsgrafik 104 gefärbt ist, schwarz. Die scharfe Dämpfungslage 704 entspricht der Intensitätsabbildung bzw. Karte 702 der Emissionsschicht und ist der Emissionsgrafik 104 auf Grundlage der Größe und Form der Emissionsgrafik 104 zugeordnet. 7 generally indicates 700 exemplary aspects for displaying an emissions graph 104 and a damping graph. An example of an intensity map 702 for the emission layer is in the upper half of 4 shown while an example of a sharp damping position 704 is shown in the lower half. The intensity map or map 702 is black or dark in places where there are no pixels in the emission display layer 306 (please refer 3 ) should be displayed or colored. The Synthetic Graphics Module 602 therefore makes the intensity map 702 except the location of a zone of the graphic 104 that according to the intended emission graph 104 is colored, black. The sharp damping position 704 corresponds to the intensity map or map 702 the emission layer and is the emission graph 104 based on the size and shape of the emission graph 104 assigned.

Die scharfe Dämpfungslage 704, die als transparente Abbildung bzw. Karte dient, ist in Bereichen weiß, in denen Licht vom Hintergrund übertragen werden soll, ist in opaken Bereichen schwarz, in denen kein Licht vom Hintergrund übertragen werden soll, und ist in teilweise transparenten Bereichen grau schattiert. Die weißen Abschnitte der scharfen Dämpfungslage 704 geben Abschnitte an, die gegenüber einfallenden Lichtstrahlen transparent bleiben sollen. Die Ausgestaltung der Dämpfungseigenschaften der Vordergrundgrafik kann zusammen mit der Ausgestaltung der Emissionsintensitätseigenschaften der Vordergrundgrafik bereitgestellt werden, oder es kann die Ausgestaltung der Dämpfungseigenschaften automatisch auf Grundlage der Emissionsintensitätseigenschaften der Vordergrundgrafik erstellt werden. Beide können unter Verwendung von Feldanordnungen von Bildpixelwerten oder über eine vektorbasierte Beschreibung, so beispielsweise eine solche, die mit einem Zeichenprogramm erstellt werden kann, spezifiziert werden. Die genaue Ausgestaltung der Transparenz- und Emissionsschichten wird von dem Synthetische-Grafik-Modul 602 bestimmt, das zum Erstellen der Grafik verwendet wird, wobei eine beliebige Kombination aus Vordergrundintensität und Hintergrundtransparenz implementiert sein kann. In der oberen Hälfte von 7 ist ein Rand 706 der Emissionsgrafik 104 zusammen mit der Intensitätsabbildung bzw. Karte 702 der Emissionsschicht gezeigt. Der Rand 706 ist auch in 8 gezeigt.The sharp damping position 704 , which serves as a transparent map, is white in areas where light from the background is to be transmitted, is black in opaque areas where no light is to be transmitted from the background, and is shaded gray in partially transparent areas. The white sections of the sharp damping layer 704 specify sections that should remain transparent to incident light rays. The design of the attenuation characteristics of the foreground graphics may be provided along with the design of the emission intensity characteristics of the foreground graphics, or the design of the attenuation characteristics may be automatically established based on the emission intensity characteristics of the foreground graphics. Both may be specified using field arrays of image pixel values or via a vector-based description, such as one that can be created with a drawing program. The exact design of the transparency and emission layers is provided by the synthetic graphics module 602 which is used to create the graph, where any combination of foreground intensity and background transparency may be implemented. In the upper half of 7 is a border 706 the emission graph 104 together with the intensity map 702 the emission layer shown. The edge 706 is also in 8th shown.

8 zeigt schematisch einen exemplarischen Lösungsansatz 800 zum Ergänzen einer Dämpfungsgrafik 504. Der Lösungsansatz 800 beinhaltet das Hellbereichskompensationsmodul 604, das eine Ergänzung 810 durchführt. In der linken oberen Ecke ist die Emissionsgrafik 104 derart dargestellt, dass sie den Rand 706 aufweist. Das Synthetische-Grafik-Modul 602 verwendet die Größe der Emissionsgrafik 104 zur Einrichtung der Größe der Dämpfungsgrafik 504, die in der oberen Mitte von 8 dargestellt ist. Die Größen der Emissionsgrafik 104 und der Dämpfungsgrafik 504 können beispielsweise im Wesentlichen gleich sein. Mit anderen Worten, in einem Ausmaß, das eingedenk der Relativauflösungsfähigkeiten der Emissionsanzeigeschicht 306 und der Dämpfungsanzeigeschicht 308 noch akzeptabel ist, kann die Dämpfungsgrafik 504 derart ausgestaltet werden, dass sie zu Beginn dieselbe Größe wie die Emissionsgrafik 104 aufweist. Im Sinne des Vorliegenden kann der Begriff „Dämpfungsgrafik” oder „Dämpfungsgrafik 504” wenigstens eine Anfangsversion einer Dämpfungsgrafik, beispielsweise vor der Ergänzung 810, mehrere Versionen einer Dämpfungsgrafik, beispielsweise vor und nach der Ergänzung 810, das allgemeine Konzept einer Dämpfungsgrafik und dergleichen mehr bezeichnen. 8th schematically shows an exemplary approach 800 to supplement a damping graph 504 , The solution 800 includes the bright area compensation module 604 that a supplement 810 performs. In the upper left corner is the emission graph 104 such that they represent the edge 706 having. The Synthetic Graphics Module 602 uses the size of the emission graph 104 to set up the size of the attenuation graph 504 in the upper middle of 8th is shown. The sizes of the emission graphics 104 and the attenuation graph 504 For example, they may be substantially the same. In other words, to an extent, bearing in mind the relative resolution capabilities of the emission display layer 306 and the damping display layer 308 is still acceptable, can the attenuation graph 504 be designed so that they are initially the same size as the emission graphics 104 having. in the For the purposes of the present, the term "attenuation graph" or "attenuation graph 504 "At least an initial version of a damping graph, for example, before the supplement 810 , several versions of a damping graph, for example, before and after the addition 810 , denote the general concept of a damping graph and the like.

Das Synthetische-Grafik-Modul 602 kann die Dämpfungsgrafik 504 oder 804 an der Dämpfungsanzeigeschicht 308 derart, dass diese im Wesentlichen opak gegenüber Lichtstrahlen ist, bilden oder sie verwenden. Die Dämpfungsgrafik 504 oder 804 kann beispielsweise unter Verwendung einer satten dunklen Farbe, so beispielsweise von Schwarz oder Grau, gebildet werden. Die schematischen Diagramme der Dämpfungsgrafiken 504 und 804 sind mit einem Kreuzschraffurmuster dargestellt, um eine visuelle Differenzierung gegenüber dem schematischen Diagramm der Emissionsgrafik 104 zu ermöglichen. Eine scharfe Grenze 802 der Dämpfungsgrafik 504 und der erweiterten Dämpfungsgrafik 804 ist in dem oberen mittleren Abschnitt von 8 beziehungsweise der rechten oberen Ecke von 8 angezeigt.The Synthetic Graphics Module 602 can the attenuation graph 504 or 804 at the damping display layer 308 such that it is substantially opaque to light rays, forming or using them. The attenuation graph 504 or 804 For example, it can be formed using a rich dark color such as black or gray. The schematic diagrams of the attenuation graphics 504 and 804 are shown with a crosshatch pattern to provide visual differentiation over the schematic diagram of the emission graph 104 to enable. A sharp border 802 the attenuation graph 504 and the expanded attenuation graph 804 is in the upper middle section of 8th or the upper right corner of 8th displayed.

Bei gewissen exemplarischen Ausführungsformen ergänzt das Hellbereichskompensationsmodul 604 die Dämpfungsgrafik 504 derart, dass die erweiterte Dämpfungsgrafik 804 mehr Hintergrundlichtfarbe davon fernhält, durch die Anzeigeschichten in der Umgebung um die Ränder 706 der Emissionsgrafik 104 herum zu gelangen. Die Ergänzung 810 der Dämpfungsgrafik ist in der oberen rechten Ecke von 8 dargestellt. Das Hellbereichskompensationsmodul 604 ergänzt (beispielsweise vergrößert oder expandiert) die Dämpfungsgrafik 504, indem die Grenze 802 über den Rand 706 der Emissionsgrafik 104 hinaus erstreckt wird. Die erweiterte Dämpfungsgrafik 804 beinhaltet im Vergleich zu der Emissionsgrafik 104 eine Zone 806, die sich nicht zusammen mit der kleineren Emissionsgrafik 104 erstreckt. Die Zone 806 ist in 8 nicht notwendigerweise maßstabsgetreu dargestellt. Obwohl die Dämpfungsgrafik 504 zudem derart dargestellt ist, dass sie in mehreren verschiedenen Richtungen um die Grenze 802 der Dämpfungsgrafik 504 herum gleichermaßen ergänzt ist, können auch eine oder mehrere Seiten oder andere Abschnitte einer Dämpfungsgrafik 504 in verschiedenem Ausmaß, einschließlich gänzlich einer fehlenden Ergänzung, ergänzt sein.In certain exemplary embodiments, the light area compensation module supplements 604 the attenuation graph 504 such that the expanded attenuation graph 804 keeps more background light color away from it through the display layers around the edges 706 the emission graph 104 to get around. The complement 810 the attenuation graph is in the upper right corner of 8th shown. The bright area compensation module 604 adds (for example, enlarges or expands) the attenuation graph 504 by the limit 802 over the edge 706 the emission graph 104 is extended out. The extended attenuation graph 804 includes compared to the emission graph 104 a zone 806 that are not along with the smaller emission graph 104 extends. The zone 806 is in 8th not necessarily drawn to scale. Although the attenuation graph 504 Moreover, it is shown in several different directions around the border 802 the attenuation graph 504 may also be supplemented by one or more pages or other sections of a damping graph 504 to a varying extent, including entirely a missing supplement.

Die beiden verschiedenen Versionen einer Dämpfungslage für die Dämpfungsanzeigeschicht 308 sind in der unteren Hälfte von 8 gezeigt. Der dunkle Abschnitt der Dämpfungslage gibt an, welcher Abschnitt der Dämpfungsanzeigeschicht 308 aktiviert werden soll, um die einfallenden Lichtstrahlen zu aktivieren. Die weißen Abschnitte der Dämpfungslage geben Abschnitte an, die transparent gegenüber einfallenden Lichtstrahlen bleiben sollen. Das Synthetische-Grafik-Modul 602 erstellt die Dämpfungsgrafik 504 derart, dass diese eine scharfe Grenze 802 aufweist. Obwohl eine angezeigte Dämpfungsgrafik 504 oder 804 für das Auge des Nutzers außerhalb des Fokus und daher unscharf erscheint, arbeitet das Hellbereichskompensationsmodul 604 an der scharfen Grenze 802. Wie durch die schematischen Diagramme der Dämpfungslagen in der unteren Hälfte von 8 dargestellt ist, kann die Ergänzung 810 alternativ auch dadurch erfolgen, dass die Grenze 802 entsprechend der Dämpfungsgrafik 504 in der scharfen Dämpfungslage 704 derart bewegt wird, dass sie die Dämpfungsgrafik erweitert. Das Hellbereichskompensationsmodul 604 kann die Ergänzung 810 daher an der scharfen Dämpfungslage 704 vornehmen, um die ausgedehnte Dämpfungslage 808 zu produzieren, die der erweiterten Dämpfungsgrafik 804 entspricht, die eine scharfe Grenze 802 beibehält. Die erweiterte Dämpfungsgrafik 804 kann hier zudem als ergänzte Dämpfungsgrafik bezeichnet werden, und es kann die erweiterte Dämpfungslage 808 hier zudem als ergänzte Dämpfungslage bezeichnet werden.The two different versions of a damping layer for the damping display layer 308 are in the lower half of 8th shown. The dark portion of the damping layer indicates which portion of the damping display layer 308 should be activated to activate the incident light rays. The white portions of the damping layer indicate sections that are to remain transparent to incident light rays. The Synthetic Graphics Module 602 creates the attenuation graph 504 such that these are a sharp border 802 having. Although a displayed attenuation graph 504 or 804 for the user's eye out of focus and therefore out of focus, the bright area compensation module operates 604 at the sharp border 802 , As shown by the schematic diagrams of the damping layers in the lower half of 8th is shown, the supplement may 810 Alternatively, this can be done by limiting 802 according to the attenuation graph 504 in the sharp damping position 704 is moved so that it extends the attenuation graph. The bright area compensation module 604 can the supplement 810 therefore at the sharp damping position 704 make to the extended damping position 808 to produce the expanded attenuation graphic 804 which is a sharp limit 802 maintains. The extended attenuation graph 804 can also be referred to here as a supplemental attenuation graph, and it can be the extended attenuation 808 Here also be referred to as a supplemental damping position.

Exemplarische Betriebsvorgänge des Hellbereichskompensationsmoduls 604 sind vorstehend qualitativ beschrieben worden. Exemplarische Betriebsvorgänge des Hellbereichskompensationsmoduls 604 werden nachstehend in quantitativer Hinsicht mittels einer rechentechnisch strengeren Beschreibung erläutert. Um das Verständnis durch Vereinfachung der mathematischen Beschreibung zu erleichtern, wird die Emissionsanzeigeschicht als Vordergrund bezeichnet, während die Realweltszene als Hintergrund bezeichnet wird.Exemplary operations of the bright area compensation module 604 have been qualitatively described above. Exemplary operations of the bright area compensation module 604 are explained below in quantitative terms by means of a computationally more rigorous description. To facilitate understanding by simplifying the mathematical description, the emission display layer is referred to as the foreground, while the real world scene is referred to as the background.

Die Vordergrundgrafik weist eine räumlich variierende nicht vorab multiplizierte Intensität IF, die der Emissionsgrafik 104 entspricht, und einen Vordergrundtransparenzwert TF, der der scharfen Dämpfungslage 704 entspricht, auf. Ist die Hintergrundrealweltintensität IB gegeben, so kann die zusammengesetzte Farbe IC unter Verwendung von Gleichung (1) berechnet werden: IC = IF × (1 – TF) + TF × IB (1) The foreground graph has a spatially varying non-pre-multiplied intensity I F , that of the emission graph 104 and a foreground transparency value T F corresponding to the sharp attenuation position 704 corresponds, on. Given the background real world intensity I B , the composite color I C can be calculated using equation (1): I C = I F × (1-T F ) + T F × I B (1)

In einem Fall, in dem das Auge eines Nutzers auf die Tiefe der Vordergrundgrafikanzeige fokussiert ist und sich der Hintergrund in derselben Tiefe befindet, wird die effektive Transparenz des Hintergrunddämpfungselementes als TB berechnet, was sich aus einer Faltung der Dämpfungspixel tB bezüglich der Größe der Pupille unter Verwendung von Gleichung (2) ergibt: TB(x, y) >= Σ x + k / i = x – kΣ y + k / j = y – ktB(i, j)·W(i – x, j – x) (2) In a case where a user's eye is focused on the depth of the foreground graphics display and the background is at the same depth, the effective transparency of the background attenuation element is calculated as T B resulting from a convolution of the attenuation pixels t B relative to the size of the Pupil using equation (2) gives: T B (x, y)> = Σ x + k / i = x - kΣ y + k / j = y - kt B (i, j) · W (i - x, j - x) (2)

Hierbei ist W(i, j) ein Kern, der die Faltung durch das Auge der Dämpfungsgrafik darstellt, wobei der Kernradius k in Pixelkoordinaten der Dämpfungsanzeigeschicht ausgedrückt wird.Here, W (i, j) is a kernel representing the convolution through the eye of the attenuation graph, where the core radius k is expressed in pixel coordinates of the attenuation display layer.

Zur Berechnung von W(X, Y) im Koordinatensystem der Dämpfungsanzeigeschicht wird die Realweltdämpfungsfunktion entsprechend der physikalischen Apertur des Auges E(X, Y) auf die Dämpfungsanzeigeschicht projiziert und in Pixelkoordinaten umgewandelt. Eine vereinfachende Annahme besteht darin, die Pupille als rund und die Ansichtsrichtung als senkrecht zur Anzeige zu betrachten, wobei in diesem Fall W(i, j) die Form einer kreisförmigen Top-Hat-Funktion mit dem Wert 1 innerhalb des Radius des Kreises und dem Wert 0 andernfalls annimmt. Alternativ kann bei einer nichtsenkrechten Ansichtsrichtung die Pupille unter Verwendung einer Ellipse angenähert werden. Bei senkrechter Ansichtsrichtung und einer runden Pupille hängt der Radius Ratt der Top-Hat-Funktion in physikalischen Einheiten vom Pupillenradius des Auges Reye ab. Insbesondere hängt der Radius Ratt vom Pupillenradius des Auges Reye so ab, wie die Skalierung durch das Verhältnis der Abstände (i) zwischen dem Auge und dem virtuellen Bild und (ii) zwischen der Dämpfungsanzeige und dem virtuellen Bild skaliert ist. Der Radius Ratt der Top-Hat-Funktion wird aus Gleichung (3) berechnet: Ratt = Reye·(Zdisplay – Zatt)/(Zdisplay + Zeye). (3) For calculating W (X, Y) in the coordinate system of the attenuation display layer, the real world attenuation function corresponding to the physical aperture of the eye E (X, Y) is projected onto the attenuation display layer and converted into pixel coordinates. A simplifying assumption is to regard the pupil as round and the viewing direction as perpendicular to the display, in which case W (i, j) takes the form of a circular top hat function with the value 1 within the radius of the circle and Otherwise assumes 0. Alternatively, in a non-perpendicular viewing direction, the pupil may be approximated using an ellipse. In a vertical viewing direction and a round pupil, the radius R att of the top hat function in physical units depends on the pupil radius of the eye R eye . In particular, the radius R att of the pupil radius of the eye R eye depends on how the scaling is scaled by the ratio of the distances (i) between the eye and the virtual image and (ii) between the attenuation display and the virtual image. The radius R att of the top hat function is calculated from equation (3): R att = R eye * (Z display - Z att ) / (Z display + Z eye ). (3)

Die Variablen von Gleichung (3) werden nachstehend beschrieben. Die Größe der Pupille eines Auges (beispielsweise der Pupillenradius Reye des Auges) kann unter Verwendung einer hin zu dem Auge gerichteten Kamera bestimmt werden, so beispielsweise einer Kamera, die auch zur Augennachverfolgung (eye-tracking) verwendet wird. Mit Blick auf die anderen drei Variablen zeigt 9 allgemein bei 900 Beispiele für mehrere Variablen, nämlich P und Z. Diese Variablen stehen mit einer Erweiterte-Realität-Einrichtung in Zusammenhang, die eine messbare Eigenschaft einer Pupille 902 zur Bestimmung eines Faktors zur Ergänzung einer Dämpfungsgrafik verwendet. Die Variable Zatt stellt einen Abstand zwischen der Emissionsanzeigeschicht 306 und der Dämpfungsanzeigeschicht 308 dar. Die Variable Zeye stellt einen Abstand zwischen der Pupille 902 des Auges und der Emissionsanzeigeschicht 306 dar. Die Variable Zdisplay stellt einen Abstand zwischen der Dämpfungsanzeigeschicht 308 und dem virtuellen Bild 312 der Emissionsanzeige dar. Die Variablen Pe und Pa stellen Mittelpunkte oder Zentren der Emissionsanzeigeschicht 306 beziehungsweise der Dämpfungsanzeigeschicht 308 dar, wenn von dem Realweltobjekt 304 stammende Lichtstrahlen 314 durch die Schichten hindurchlaufen.The variables of equation (3) will be described below. The size of the pupil of an eye (eg, the pupil radius R eye of the eye) may be determined using an eye-facing camera, such as a camera that is also used for eye-tracking. Looking at the other three variables shows 9 generally included 900 Examples of multiple variables, namely P and Z. These variables are associated with an augmented reality facility that is a measurable property of a pupil 902 used to determine a factor to supplement an attenuation graph. The variable Z att represents a distance between the emission display layer 306 and the damping display layer 308 The variable Z eye represents a distance between the pupil 902 of the eye and the emission display layer 306 The variable Z display represents a distance between the attenuation display layer 308 and the virtual picture 312 the emission display. The variables P e and P a represent centers or centers of the emission display layer 306 or the attenuation display layer 308 when, from the real world object 304 originating light rays 314 pass through the layers.

Nimmt man an, dass das Ziel von TB eine starke Annäherung an TF ist, so kann das Problem als Optimierung mit Randbedingungen zur Maximierung der Feldanordnung von tB Werten mit einer L1- oder L2-Norm formuliert werden, wobei die Randbedingungen aus vorgenannter Gleichung (2) gelten. Diese Optimierung mit Randbedingungen kann durch Gleichung (4) dargestellt werden: TF(x, y) >= Σ x + k / i = x – kΣ y + k / j = y – ktB(i, j)·W(i – x, j – x) (4) Assuming that the goal of T B is a strong approximation to T F , the problem can be formulated as boundary-conditional optimization to maximize the array of t B values with an L1 or L2 norm, the constraints of the above Equation (2) apply. This constrained optimization can be represented by Equation (4): T F (x, y)> = Σ x + k / i = x - kΣ y + k / j = y - kt B (i, j) · W (i - x, j - x) (4)

Die Optimierungen mit Randbedingungen sind jedoch gegebenenfalls nicht mit niedrige Latenz aufweisenden Echtzeitberechnungen kompatibel, was insbesondere für eine über geringe Ressourcen verfügende Vorrichtung, so beispielsweise für eine tragbare oder eine andere mobile Rechenvorrichtung, gilt. Anstatt dessen kann die Variable tB als Minimalwert für alle Pixel für einen min-Kern M formuliert werden, der bezüglich x, y mit einer Domäne zentriert ist, die größer oder gleich dem Faltungskern W(i, j) ist.However, the constraints may not be compatible with low latency real-time computations, particularly for a low-resource device such as a portable or other mobile computing device. Instead, the variable t B may be formulated as a minimum value for all pixels for a min-kernel M centered on x, y with a domain greater than or equal to the convolution kernel W (i, j).

Ein konservativer Satz von tB Werten kann sodann unter Verwendung von Gleichung (5) berechnet werden: tB(x, y) = M·TF = ∧i,j for all M!=0 centered on x,yTF(i, j) (5) A conservative set of t B values can then be calculated using Equation (5): t B (x, y) = M · T F = ∧ i, j for all M! = 0 centered on x, y T F (i, j) (5)

Es ist augenscheinlich, dass dies Gleichung (4) erfüllt, da tB(i, j) kleiner oder gleich TF(x, y) mit Blick auf den Kern ist. Der Faltungskern W(i, j) ist normiert und nimmt keine negativen Gewichtungen an. Diese Beziehung gilt, solange der ursprünglich unscharfe Kern gänzlich in die min-Kern-Domäne von M passt. Ein min-Kern kann für eine optimale Effizienz gewählt werden. Ein Nachteil der Wahl eines Kerns, der zu groß ist, besteht jedoch darin, dass ein derartiger zu großer Kern zu einem größeren Dunkelbereich um die Vordergrundgrafik herum, für die eine Kompensation anschließend berechnet werden soll, führt.It is evident that this satisfies equation (4) since t B (i, j) is less than or equal to T F (x, y) with respect to the kernel. The convolution kernel W (i, j) is normalized and does not accept negative weights. This relationship holds as long as the originally fuzzy core fits entirely into M's min-core domain. A min core can be chosen for optimal efficiency. However, a disadvantage of choosing a kernel that is too large is that such a too large kernel leads to a larger dark area around the foreground image for which compensation is subsequently to be calculated.

Für kreisförmige Kameraaperturen (beispielsweise menschliche Pupillen und bestimmte Kameras) kann ein kreisförmiger min-Filter eingesetzt werden, der ein wenig größer als der Faltungsdurchmesser des Faltungskernes W ist. Alternativ kann ein quadratischer min-Filter verwendet werden, dessen Halbbreite größer oder gleich der Halbbreite k des W-Filters ist. Ein eindimensionaler (1-D)-min-Filter kann vergleichsweise effizient berechnet werden, wenn eine räumlich invariante Filterbreite gegeben ist, die nur drei Vergleiche pro Pixel unabhängig von der Filterbreite verwendet. Ein zweidimensionaler (2-D)-Kasten-min-Filter ist separierbar, was einen Durchlauf zur horizontalen Filterung und einen zweiten Durchlauf zur vertikalen Filterung ermöglicht. Ein kreisförmiger Filter kann als Zusammenführung eines Satzes von 1-D Filtern berechnet werden, wobei die Kosten hiervon proportional zur Filterhöhe sind. Für einen schnellen kreisförmigen Filter kann der min-Filter dadurch berechnet werden, dass eine Serie von Filterfaltungen an jeder der Quellen-Scan-Linien für den Kern kombiniert wird. Die Gesamtkosten sind im Radius des Filterkernes linear.For circular camera apertures (for example, human pupils and certain cameras), a circular min filter may be used which is slightly larger than the convolution diameter of the convolution kernel W. Alternatively, a quadratic min filter may be used whose half width is greater than or equal to the half width k of the W filter. A one-dimensional (1-D) -min filter can be computed comparatively efficiently given a spatially invariant filter width that uses only three comparisons per pixel regardless of the filter width. A two-dimensional (2-D) box-min filter is separable, allowing one pass for horizontal filtering and a second pass for vertical filtering. A circular filter can be calculated as a combination of a set of 1-D filters, the cost of which is proportional to the filter height. For a fast circular filter, the min filter can be calculated by having a series of filter convolutions on each of the source scan lines for the core is combined. The total costs are linear in the radius of the filter core.

10 zeigt allgemein bei 1000 ein Problem, das sich daraus ergeben kann, dass eine Dämpfungsgrafik derart vergrößert wird, dass ein unbeabsichtigter Dunkelbereich 506 sichtbar bleibt, sichtbar wird oder stärker sichtbar wird. Für die in 10 gezeigte Bildansicht ist eine Kompensation für einen unerwünschten Hellbereich (beispielsweise einen inneren Hellhof) bereits von dem Hellbereichskompensationsmodul 604 (siehe 6) implementiert worden. Es bleibt jedoch weiterhin ein unbeabsichtigter Dunkelbereich 506 (beispielsweise ein äußerer Dunkelhof) bestehen. Der unbeabsichtigte Dunkelbereich 506 kann in der Praxis nach der Kompensation des unerwünschten Hellbereiches breiter oder dicker sein, da die Dämpfungsgrafik entsprechend der Ergänzung 810 (siehe 8) erweitert wird. 10 generally indicates 1000 a problem that may arise from enlarging an attenuation graph such that an unintended dark area 506 remains visible, becomes visible or becomes more visible. For the in 10 shown image view is a compensation for an undesirable bright area (for example, an inner Hellhof) already from the bright area compensation module 604 (please refer 6 ) has been implemented. However, it still remains an unintended dark area 506 (for example, an outer dark courtyard). The unintentional dark area 506 In practice, after the compensation of the unwanted bright area, it may be wider or thicker, since the attenuation diagram corresponds to the supplement 810 (please refer 8th ) is extended.

Es wird eine exemplarische simulierte zusammengesetzte Bildansicht 1004 gezeigt. Der unbeabsichtigte Dunkelbereich 506 wird in der Umgebung der Grenze der Emissionsgrafik 104 gezeigt. Die Unschärfe, die sich daraus ergibt, dass die Dämpfungsgrafik bei Ansicht durch das Auge eines Nutzers außerhalb des Fokus ist, ist durch die unscharfe Grenze 1002 für den unbeabsichtigten Dunkelbereich 506 angegeben. Der unbeabsichtigte Dunkelbereich 506 kann durch das Dunkelbereichskompensationsmodul 606, wie in 11 und 12 gezeigt ist, kompensiert werden.It becomes an exemplary simulated composite image view 1004 shown. The unintentional dark area 506 will be in the vicinity of the border of the emission graph 104 shown. The blur that results from the attenuation graph being out of focus when viewed by a user's eye is due to the blurred border 1002 for the unintended dark area 506 specified. The unintentional dark area 506 can through the dark area compensation module 606 , as in 11 and 12 is shown to be compensated.

11 zeigt allgemein bei 1100 exemplarische Aspekte des Anpassens einer Dämpfungslage durch ein Dunkelbereichskompensationsmodul 606, um einer außerhalb des Fokus befindlichen Dämpfungsgrafik 504 oder 804 (siehe 5A, 5B und 8) zu begegnen. Ein Beispiel für eine erweiterte Dämpfungsgrafik 808, die weiterhin eine scharfe Grenze 802 aufweist, ist in der oberen Hälfte von 11 dargestellt, während ein Beispiel für eine unscharfe Dämpfungslage 1104 in der unteren Hälfte dargestellt ist. Die Dämpfungslage verwendet weiße Abschnitte, um anzugeben, welche Abschnitte einer Dämpfungsanzeigeschicht 308 (siehe 3) transparent bleiben sollen. Nachdem die Ergänzung 810 (siehe 8) erfolgt ist, entspricht die erweiterte Dämpfungslage 808 einer erweiterten Dämpfungsgrafik 804. 11 generally indicates 1100 exemplary aspects of adjusting a damping position by a dark area compensation module 606 to an out of focus attenuation graph 504 or 804 (please refer 5A . 5B and 8th ) to meet. An example of an extended attenuation graph 808 that continues to be a sharp border 802 is in the upper half of 11 shown while an example of a fuzzy cushioning 1104 is shown in the lower half. The damping layer uses white portions to indicate which portions of a damping display layer 308 (please refer 3 ) should remain transparent. After the supplement 810 (please refer 8th ), corresponds to the extended damping position 808 an expanded attenuation graph 804 ,

Die erweiterte Dämpfungsgrafik 804 scheint für das Auge des Nutzers außerhalb des Fokus zu sein. Entsprechend defokussiert zur Bestimmung der Größe und des Aussehens des unbeabsichtigten Dunkelbereiches 506, der eine unscharfe Grenze 1002 aufweist (wie auch in 10 gezeigt ist), das Dunkelbereichskompensationsmodul 606 die erweiterte Dämpfungslage 808. Das Dunkelbereichskompensationsmodul 606 defokussiert die scharte Grenze 802 der Dämpfungsgrafik so, wie sie in der erweiterten Dämpfungslage 808 dargestellt ist, um eine unscharfe Dämpfungslage 1104, die die unscharfe Grenze 1002 aufweist, zu produzieren. Die unscharfe Dämpfungslage 1104 wird zusammen mit der scharfen Dämpfungslage 704 (siehe 4) verwendet, um eine Intensitätsreplikmaske von 12 zu erzeugen.The extended attenuation graph 804 seems to be out of focus for the user's eye. Accordingly defocused to determine the size and appearance of the unintended dark area 506 who has a blurred border 1002 has (as well as in 10 shown), the dark area compensation module 606 the extended damping position 808 , The dark area compensation module 606 defocuses the sharp border 802 the attenuation graph as they do in the extended attenuation position 808 is shown to a blurred damping position 1104 that the blurred border 1002 has to produce. The blurred cushioning 1104 gets along with the sharp cushioning position 704 (please refer 4 ) used to generate an intensity replica mask of 12 to create.

12A und 12B zeigen allgemein bei 1200A und 1200B exemplarische Aspekte des Erzeugens einer Replikgrafik 1204 durch ein Dunkelbereichskompensations modul 606 unter Verwendung einer Intensitätsreplikmaske. Ein Beispiel für eine Intensitätsreplikmaske 1202 für die Emissionsschicht ist in der oberen Hälfte von 12A dargestellt, während ein Beispiel für ein farbiges Intensitätsreplikbild 1208 in der unteren Hälfte dargestellt ist. Die Intensitätsreplikmaske 1202 ist dort weiß dargestellt, wo Pixel durch die Emissionsanzeigeschicht 306 angezeigt oder gefärbt sein sollen, wie durch das farbige Intensitätsreplikbild 1208 gezeigt ist. Andere Abschnitte der Emissionsanzeigeschicht, die für die Replikgrafik nicht gefärbt werden sollen, sind in der Intensitätsreplikmaske 1208 und dem farbigen Intensitätsreplikbild 1208 schwarz dargestellt. Die Intensitätsreplikmaske 1202 beinhaltet eine unscharfe Zone 1206, die einer Kombination der Zone 806 (siehe 8) und der unscharfen Grenze 1002 (siehe 10 und 11) entspricht. 12A and 12B generally indicate 1200A and 1200B exemplary aspects of creating a replica artwork 1204 by a dark area compensation module 606 using an intensity replica mask. An example of an intensity replica mask 1202 for the emission layer is in the upper half of 12A as an example of a colored intensity replica image 1208 is shown in the lower half. The intensity replica mask 1202 is there white where pixels through the emission display layer 306 be displayed or colored, as by the colored intensity replica image 1208 is shown. Other portions of the emission display layer that are not to be colored for the replica artwork are in the intensity replica mask 1208 and the colored intensity replica image 1208 shown in black. The intensity replica mask 1202 includes a blurred zone 1206 that is a combination of the zone 806 (please refer 8th ) and the blurred border 1002 (please refer 10 and 11 ) corresponds.

Das Dunkelbereichskompensationsmodul 606 produziert die Intensitätsreplikmaske 1202 durch Umkehren der unscharfen Dämpfungslage 1104 (siehe 11) und Addieren bzw. Hinzufügen (beispielsweise durch im qualitativen Sinne erfolgendes Einbeziehen oder im quantitativen Sinne erfolgendes Multiplizieren) der scharfen Dämpfungslage 704 (siehe 7). Das Dunkelbereichskompensationsmodul 606 färbt zudem die unscharfe Zone 1206 und bildet eine Replikgrafik 1204, wie in dem farbigen Intensitätsreplikbild 1208 gezeigt ist. Um die Färbung der unscharfen Zone 1206 zur Reproduktion des Helligkeitspegels oder des Aussehens der Hintergrundszene klar darzustellen, ist in 12B eine vergrößerte Ansicht der Replikgrafik 1204 gezeigt. Eine Kamera bezieht Daten, die von der Realweltszene stammendes Licht darstellen. Aus diesen Daten, die das Realweltlicht darstellen, identifiziert das Dunkelbereichskompensationsmodul 606 die Daten, die der Realweltszene hinter der unscharfen Zone 1206 entsprechen. Replikpixel werden auf Grundlage der Lichtdaten gefärbt, um die Realweltszene, die durch die außerhalb des Fokus befindliche, unscharf erscheinende und erweiterte Dämpfungsgrafik blockiert wird, zu reproduzieren. Daher färbt das Dunkelbereichskompensationsmodul 606 die unscharfe Zone 1206, um das gefärbte Intensitätsreplikbild 1208, das die Replikgrafik 1204 erzeugt, zu produzieren. Die Replikgrafik 1204 reproduziert das Aussehen der Realweltszene in der Umgebung der Grenze um die Emissionsgrafik herum auf Grundlage der Daten von der Kamera. Das Aussehen des allgemeinen Licht- oder Helligkeitspegels der Realweltszene oder der tatsächlichen spezifischen Färbung der Realweltszene kann von der Replikgrafik 1204 reproduziert werden.The dark area compensation module 606 produces the intensity replica mask 1202 by reversing the fuzzy damping position 1104 (please refer 11 ) and adding (e.g., by qualitatively involving or quantitatively multiplying) the sharp attenuation layer 704 (please refer 7 ). The dark area compensation module 606 also colors the fuzzy zone 1206 and forms a replica artwork 1204 as in the colored intensity replica image 1208 is shown. To the coloring of the blurred zone 1206 to clearly represent the reproduction of the brightness level or the appearance of the background scene is in 12B an enlarged view of the replica graphic 1204 shown. A camera gets data that represents light coming from the real world scene. From these data representing the real world light, the dark area compensation module identifies 606 the dates, the real world scene behind the blurred zone 1206 correspond. Replica pixels are colored based on the light data to reproduce the real world scene blocked by out-of-focus, blurred-appearing and expanded attenuation graphics. Therefore, the dark area compensation module colors 606 the blurred zone 1206 to the colored intensity replica image 1208 that's the replica artwork 1204 produced, produce. The replica artwork 1204 reproduces the appearance of the real world scene around the border around the Emission graphics around based on the data from the camera. The appearance of the general light or brightness level of the real world scene or the actual specific coloration of the real world scene may vary from the replica artwork 1204 be reproduced.

Exemplarische Betriebsvorgänge des Dunkelbereichskompensationsmoduls 606 sind vorstehend qualitativ beschrieben worden. Exemplarische Betriebsvorgänge des Dunkelbereichskompensationsmoduls 606 werden nachstehend quantitativ mittels einer rechentechnisch strengeren Beschreibung präsentiert. Um das Verständnis durch Vereinfachung der mathematischen Beschreibung zu erleichtern, wird die Emissionsanzeigeschicht als Vordergrund bezeichnet, während die Realweltszene als Hintergrund bezeichnet wird.Exemplary operations of the dark area compensation module 606 have been qualitatively described above. Exemplary operations of the dark area compensation module 606 are presented quantitatively below by means of a computationally more rigorous description. To facilitate understanding by simplifying the mathematical description, the emission display layer is referred to as the foreground, while the real world scene is referred to as the background.

Unter Verwendung des kreisförmigen Kern-min-Transparenzalgorithmus, der vorstehend für das Hellbereichskompensationsmodul beschrieben worden ist, wird die erweiterte Dämpfungslage 808 (siehe 8 und 11) von einem kreisförmigen min-Filter ergänzt. Die Wirkung der Linsenunschärfe an der ergänzten, erweiterten Dämpfungslage 808 mit der scharfen Grenze 802 ist als unscharfe Dämpfungslage 1104 gezeigt. Die unscharfe Dämpfungslage 1104 wird zum Modulieren von von einer Kamera bezogenem einfallendem Licht aus dem Realwelthintergrund verwendet. Um die erweiterte Dämpfungslage 808 zum Produzieren der unscharfen Dämpfungslage 1104 zu defokussieren, wird vorgenannte Gleichung (2) eingesetzt, um die geschätzte unscharfe Verdeckerlage TB(x, y) unter Verwendung eines Linsenunschärfekernes für eine nahezu kreisförmige Apertur zu berechnen.Using the circular core-min transparency algorithm described above for the bright area compensation module, the expanded attenuation layer becomes 808 (please refer 8th and 11 ) is supplemented by a circular min-filter. The effect of lens blurring on the supplemented, extended damping position 808 with the sharp border 802 is as a blurred damping position 1104 shown. The blurred cushioning 1104 is used to modulate camera-related incident light from the real world background. To the advanced damping position 808 to producing blurred damping attitude 1104 to defocus, the aforementioned equation (2) is used to calculate the estimated blurred topper position T B (x, y) using a lens blur kernel for a near circular aperture.

Das farbige Intensitätsreplikbild 1208, das mit IR bezeichnet wird, kann zum Kompensieren eines äußeren Dunkelhofes verwendet werden. Das farbige Intensitätsreplikbild 1208 wird gemäß Gleichung (6) berechnet: IR = TF(1 – TB)IB (6) The colored intensity replica picture 1208 , denoted by I R , can be used to compensate for an outer dark courtyard. The colored intensity replica picture 1208 is calculated according to equation (6): I R = T F (1-T B ) I B (6)

IB ist hierbei die Intensität des Hintergrundes so, wie er über eine Kamera bezogen wird, TB ist die Unschärfedämpfungslage 1104, und TF ist eine Vordergrundimplementierung der scharfen Dämpfungslage 704. Das Emissionsanzeigebild IE, das eine Kombination aus der Emissionsgrafik 104 und der Replikgrafik 1204 darstellt, wird unter Verwendung von Gleichung (7) berechnet: IE = (1 – TF)IF + IR (7) I B is in this case the intensity of the background as it is obtained from a camera, T B is the blur damping layer 1104 , and T F is a foreground implementation of the sharp attenuation layer 704 , The emission display image I E , which is a combination of the emission graph 104 and the replica artwork 1204 is calculated using equation (7): I E = (1-T F ) I F + I R (7)

Hierbei ist IF die Intensität der Emissionsgrafik 104.Here, I F is the intensity of the emission graph 104 ,

13 zeigt ein schematisches Diagramm 1300 einer Erweiterte-Realität-Einrichtung, die eine zusammengesetzte Bildansicht (nicht gezeigt) mit einer ergänzten oder erweiterten Dämpfungsgrafik 804 und einer Replikgrafik 1204 unterstützt. Wie dargestellt ist, bewirkt das Anzeigemodul 608, dass die Emissionsanzeigeschicht 306 die Emissionsgrafik 104 und die Replikgrafik 1204 anzeigt, oder weist dies an. Das Anzeigemodul 608 bewirkt zudem, dass die Dämpfungsanzeigeschicht 308 die erweiterte Dämpfungsgrafik 804 anzeigt, oder weist dies an. Das Auge des Nutzers setzt die Emissionsgrafik 104 und die Replikgrafik 1204 über der Realweltszene 102 zusammen, was von der Lichtfernhalteeigenschaft der erweiterten Dämpfungsgrafik 804 beeinflusst wird. Dies führt zu einer kompensierten Bildansicht, die in 14 gezeigt ist. 13 shows a schematic diagram 1300 an augmented reality device that provides a composite image view (not shown) with a supplemented or expanded attenuation graph 804 and a replica artwork 1204 supported. As shown, the display module causes 608 in that the emission display layer 306 the emission graph 104 and the replica artwork 1204 indicates or indicates this. The display module 608 also causes the attenuation indicating layer 308 the extended attenuation graph 804 indicates or indicates this. The eye of the user sets the emission graph 104 and the replica artwork 1204 over the real world scene 102 together, what about the light-stopping feature of the expanded attenuation graph 804 being affected. This leads to a compensated picture view, which in 14 is shown.

14 zeigt allgemein bei 1400 ein exemplarisches Ergebnis einer Bildkompensation bei einer verdeckenden Grafik durch ein Bildkompensationsmodul 118. Links sind die Emissionsanzeigeschicht 306 und die Dämpfungsanzeigeschicht 308 in einer freigeschnittenen Seitenansicht angezeigt. Die Emissionsanzeigeschicht 306 zeigt eine Emissionsgrafik 104 und eine Replikgrafik 1204 an, während die Dämpfungsanzeigeschicht 308 eine erweiterte Dämpfungsgrafik 804 anzeigt. Ein Beispiel für eine schematische zusammengesetzte Bildansicht 106 ist in der Mitte gezeigt, während ein Beispiel für eine simulierte zusammengesetzte Bildansicht 106 rechts gezeigt ist. Die Emissionsgrafik 104 ist in jeder zusammengesetzten Bildansicht 106 gezeigt. In den kompensierten Bildansichten ist, wie gezeigt ist, kein unerwünschter Hellbereich oder unerwünschter Dunkelbereich visuell sichtbar. 14 generally indicates 1400 an exemplary result of image compensation in a masking graphic by an image compensation module 118 , On the left are the emission display layer 306 and the damping display layer 308 displayed in a cutaway side view. The emission display layer 306 shows an emission graph 104 and a replica graphic 1204 while the damping display layer 308 an extended attenuation graph 804 displays. An example of a schematic composite image view 106 is shown in the middle while an example of a simulated composite image view 106 shown on the right. The emission graph 104 is in every composite image view 106 shown. In the compensated image views, as shown, no unwanted bright area or unwanted dark area is visually apparent.

Nachdem exemplarische Details der Systeme, Techniken und Schemen zur Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System beschrieben worden sind, werden nunmehr einige exemplarische Prozeduren zur Darstellung von zusätzlichen Aspekten der Techniken betrachtet.Having described exemplary details of the image compensation systems, techniques, and schemes for a hidden direct-view augmented reality system, some exemplary procedures for illustrating additional aspects of the techniques will now be considered.

Exemplarische ProzedurenExemplary procedures

Der vorliegende Abschnitt beschreibt anhand 15 exemplarische Prozeduren im Zusammenhang mit der Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System bei einer oder mehreren Ausführungsformen. Aspekte der Prozeduren können in Hardware, Firmware oder Software oder auch in einer Kombination hieraus implementiert sein. Die Prozeduren sind als Sätze von Blöcken gezeigt, die Betriebsvorgänge spezifizieren, die von einer oder mehreren Vorrichtungen durchgeführt werden können, wobei die Durchführung der Betriebsvorgänge nicht notwendigerweise auf diejenigen Reihenfolgen beschränkt ist, die durch die jeweiligen Blöcke oder die Beschreibung gezeigt sind, da die Betriebsvorgänge auch in anderen Reihenfolgen oder auf vollständig oder teilweise überlappende Weise durchgeführt werden können. Bei wenigstens einigen Ausführungsformen können die Prozeduren von einer geeignet ausgelegten Vorrichtung durchgeführt werden, so beispielsweise von einer exemplarischen Erweiterte-Realität-Einrichtung 108 in Zusammenwirkung mit einer Rechenvorrichtung 112, die auf ein Bildkompensationsmodul 118 zurückgreift (siehe beispielsweise 1, 6 und 14).This section describes by reference 15 exemplary procedures associated with image compensation for a masking, direct view augmented reality system in one or more embodiments. Aspects of the procedures may be implemented in hardware, firmware or software or even a combination thereof. The procedures are shown as sets of blocks that specify operations that may be performed by one or more devices, wherein the performance of the operations is not necessarily limited to those sequences, which are shown by the respective blocks or the description, since the operations can also be performed in other orders or in a fully or partially overlapping manner. In at least some embodiments, the procedures may be performed by a suitably designed device, such as an exemplary augmented reality device 108 in cooperation with a computing device 112 pointing to an image compensation module 118 takes recourse (see, for example 1 . 6 and 14 ).

15 ist ein Flussdiagramm 1500, das sechs Blöcke 1502 bis 1512 beinhaltet und eine exemplarische Prozedur zur Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System entsprechend einer oder mehreren exemplarischen Ausführungsformen darstellt. Bei Block 1502 wird eine Emissionsgrafik bezogen. Eine Rechenvorrichtung 112 kann beispielsweise eine Emissionsgrafik 104 beziehen, die Information aufweist, die einem Nutzer 110 präsentiert werden soll. Eine Erweiterte-Realität-Einrichtung 108 kann eine textmitteilungsartige Alarmbenachrichtigung von einem Mobiltelefon, eine Navigationsanweisung von einem ortsfernen Cloudserver oder einen Batteriehinweis von einer ortsnahen Betriebssystemfunktion, die dem Nutzer 110 präsentiert werden sollen, empfangen, indem die Emissionsgrafik 104 zu einer zusammengesetzten Ansicht, die auch eine Direktansicht einer Realweltszene 102 beinhaltet, hinzugefügt bzw. addiert wird. Die Emissionsgrafik 104 kann mit einer Dämpfungslage versehen sein. Ist dem nicht so, so kann die Dämpfungslage aus der Emissionsgrafik 104 beispielsweise dadurch erzeugt werden, dass Intensitätswerte einer Intensitätsabbildung bzw. Karte 702 durch Thresholding gebildet oder auf andere Weise abgebildet werden, um Transparenzwerte für die Dämpfungslage, so beispielsweise die scharfe Dämpfungslage 704 zu beziehen. 15 is a flowchart 1500 that's six blocks 1502 to 1512 and illustrates an exemplary image compensation procedure for a hidden direct-view augmented reality system according to one or more exemplary embodiments. At block 1502 is an emission graph related. A computing device 112 can, for example, an emissions graph 104 which has information to a user 110 should be presented. An augmented reality facility 108 may be a text message-type alarm notification from a mobile phone, a navigation instruction from a remote cloud server, or a battery indication from a near-end operating system function provided to the user 110 should be presented, received by the emission graph 104 to a composite view, which is also a direct view of a real world scene 102 contains, adds or adds. The emission graph 104 can be provided with a damping layer. If this is not the case, then the damping position can be determined from the emission graph 104 For example, be generated by that intensity values of an intensity map or map 702 can be formed by thresholding or otherwise mapped to transparency values for the damping position, such as the sharp damping position 704 to acquire.

Bei Block 1504 wird eine Dämpfungslage ergänzt, um eine erweiterte Dämpfungslage zu produzieren. Eine Rechenvorrichtung 112 kann beispielsweise eine Dämpfungslage, so beispielsweise die scharfe Dämpfungslage 704 ergänzen, um eine erweiterte Dämpfungslage 808 zu produzieren. Die erweiterte Dämpfungslage 808 wird der Emissionsgrafik 104 zugeordnet. Die scharfe Dämpfungslage 704 entspricht vor der Ergänzung 810 einer Dämpfungsgrafik 504, deren Größe mit derjenigen der Emissionsgrafik 104 vergleichbar ist. Die Dämpfungsgrafik 504 oder 804 ist des Weiteren für das Fernhalten von Licht für die entsprechende Emissionsgrafik 104 verantwortlich. Zur Durchführung der Ergänzung 180 kann die wenigstens eine scharfe Grenze 802 die scharfe Dämpfungslage 704 über einen Rand 706 der Emissionsgrafik 104 hinaus auf Grundlage eines Attributes des Auges 302 des Nutzers 110 erweitern. Das Attribut kann die Größe einer physikalischen Eigenschaft des Auges 302 sein, so beispielsweise ein Maß für den Radius oder Durchmesser einer Pupille 902 des Auges 302, das zum Einstellen eines Filters verwendet wird, der bei der scharfen Dämpfungslage 704 zur Ergänzung 810 zum Einsatz kommt, um die erweiterte Dämpfungslage 808, die einer erweiterten Dämpfungsgrafik 804 entspricht, zu produzieren.At block 1504 a damping layer is supplemented to produce an extended damping position. A computing device 112 For example, a damping position, such as the sharp damping position 704 Supplement to an advanced damping position 808 to produce. The extended damping position 808 becomes the emission graph 104 assigned. The sharp damping position 704 corresponds to the supplement 810 a damping graph 504 whose size matches that of the emission graph 104 is comparable. The attenuation graph 504 or 804 Furthermore, it is for the removal of light for the corresponding emission graphics 104 responsible. To carry out the supplement 180 can the at least one sharp border 802 the sharp damping position 704 over a border 706 the emission graph 104 beyond on the basis of an attribute of the eye 302 of the user 110 expand. The attribute can be the size of a physical property of the eye 302 be such as a measure of the radius or diameter of a pupil 902 of the eye 302 , which is used to set a filter that is in the sharp damping position 704 Additionally 810 is used to the extended damping position 808 that of an extended attenuation graph 804 corresponds to produce.

Bei Block 1506 wird die erweiterte Dämpfungslage defokussiert, um eine unscharfe Dämpfungslage zu produzieren. Eine Rechenvorrichtung 112 kann beispielsweise die erweiterte Dämpfungslage 808 defokussieren, um eine unscharfe Dämpfungslage 1104 zu produzieren. Um einer Augenlinsenunschärfe infolge einer außerhalb des Fokus befindlichen erweiterten Dämpfungsgrafik 804 gerecht zu werden, wird die erweiterte Dämpfungslage 808 auf Grundlage eines Attributes des Auges 302, so beispielsweise einer physikalischen Eigenschaft hiervon, defokussiert. Ein Faltungskern, der von einer physikalischen Eigenschaft des Auges eingestellt ist, kann zum Defokussieren der scharfen Grenze 802 der erweiterten Dämpfungslage 808 angewendet werden, um eine unscharfe Grenze 1002 der unscharfen Dämpfungslage 1104 zu produzieren.At block 1506 the expanded damping position is defocused to produce a blurred damping position. A computing device 112 For example, the extended damping position 808 defocus to get a blurred cushioning 1104 to produce. An eye-lens blur due to an out-of-focus extended attenuation graph 804 to cope with, is the advanced damping position 808 based on an attribute of the eye 302 , such as a physical property thereof, defocused. A convolution kernel, set by a physical property of the eye, can defocus the sharp boundary 802 the extended damping position 808 be applied to a blurred border 1002 the blurred damping position 1104 to produce.

Bei Block 1508 wird eine Replikgrafik auf Grundlage der unscharfen Dämpfungslage und der Emissionsgrafik erzeugt, wobei die Replikgrafik dem Reproduzieren des Aussehens der Realweltszene dient. Eine Rechenvorrichtung 112 kann eine Replikgrafik 1204 beispielsweise auf Grundlage der unscharfen Dämpfungslage 1104 und der Emissionsgrafik 104 erzeugen. Die Replikgrafik 1204 dient dem Reproduzieren des Aussehens der Realweltszene 102 in einem Bereich, der die Emissionsgrafik 104 begrenzt. Zu diesem Zweck werden Daten für Licht, das von der Realweltszene 102 stammt, zum Modulieren (beispielsweise Färben) der Pixel der Replikgrafik 1204 unter Verwendung einer Intensitätsreplikmaske 1202 verwendet, um ein gefärbtes Intensitätsreplikbild 1208 zu produzieren. Die Intensitätsreplikmaske 1202 kann durch Umkehren der unscharfen Dämpfungslage 1104 und Modifizieren der umgekehrten unscharfen Dämpfungslage auf Grundlage einer scharfen Dämpfungslage 704, die der Größe und Form der Emissionsgrafik 104 entspricht, erstellt werden.At block 1508 A replica graphic is generated based on the blurred cushioning and emission graphics, the replica graphic serving to reproduce the appearance of the real world scene. A computing device 112 can be a replica artwork 1204 for example, based on the blurred attenuation 1104 and the emission graphics 104 produce. The replica artwork 1204 serves to reproduce the appearance of the real world scene 102 in an area that has the emission graph 104 limited. For this purpose, data for light coming from the real world scene 102 is for modulating (for example, coloring) the pixels of the replica graphic 1204 using an intensity replica mask 1202 used to create a colored intensity replica image 1208 to produce. The intensity replica mask 1202 can by reversing the fuzzy damping position 1104 and modifying the reverse blurred cushioning layer based on a sharp cushioning layer 704 that is the size and shape of the emission graph 104 corresponds to be created.

Bei Block 1510 präsentiert eine Dämpfungsanzeigeschicht eine erweiterte Dämpfungsgrafik unter Verwendung der erweiterten Dämpfungslage. Eine Rechenvorrichtung 112 kann bewirken, dass eine Dämpfungsanzeigeschicht 308 eine erweiterte Dämpfungsgrafik 804 unter Verwendung der erweiterten Dämpfungslage 808 nach der Ergänzung 810 präsentiert. Um die Präsentation zu bewerkstelligen, kann die Dämpfungsanzeigeschicht 308 Pixel der Dämpfungsanzeigeschicht 308 aktivieren (beispielsweise die Pixel opak machen), die der erweiterten Dämpfungsgrafik 804 so, wie sie durch die schwarze Zone der erweiterten Dämpfungslage 808 definiert ist, entsprechen, um Licht für die Emissionsgrafik 104 und die Replikgrafik 1204 fernzuhalten.At block 1510 For example, an attenuation display layer presents an expanded attenuation graph using the expanded attenuation map. A computing device 112 may cause a damping display layer 308 an extended attenuation graph 804 using the extended damping position 808 after the supplement 810 presents. To accomplish the presentation, the attenuation display layer can 308 Pixels of the attenuation display layer 308 activate ( For example, make the pixels opaque), the expanded attenuation graph 804 as they go through the black zone of the extended damping position 808 is defined to correspond to light for the emission graph 104 and the replica artwork 1204 keep.

Bei Block 1512 präsentiert eine Emissionsanzeigeschicht einem Nutzer die Emissionsgrafik und die Replikgrafik. Eine Rechenvorrichtung 112 kann beispielsweise bewirken, dass eine Emissionsanzeigeschicht 306 dem Nutzer 110 die Emissionsgrafik 104 und die Replikgrafik 1204 präsentiert. Um die Präsentation zu bewerkstelligen, kann die Emissionsanzeigeschicht 306 Pixel in Zonen aktivieren (die Pixel beispielsweise heller oder gefärbt machen), die durch eine Intensitätsabbildung bzw. Karte 702 für die Emissionsgrafik 104 und durch ein farbiges Intensitätsreplikbild 1208 für die Replikgrafik 1204 dargestellt sind.At block 1512 An emissions display layer presents a user with the emissions graph and the replica graph. A computing device 112 For example, it may cause an emission display layer 306 the user 110 the emission graph 104 and the replica artwork 1204 presents. To accomplish the presentation, the emission display layer can 306 Enable pixels in zones (for example, make the pixels lighter or colored) through an intensity map 702 for the emission graphics 104 and through a colored intensity replica image 1208 for the replica artwork 1204 are shown.

Nachdem exemplarische Prozeduren entsprechend einer oder mehreren Ausführungsformen beschrieben worden sind, werden nunmehr ein exemplarisches System und eine exemplarische Vorrichtung betrachtet, die zum Implementieren der verschiedenen hier beschriebenen Schemen und Techniken verwendet werden können.Having described exemplary procedures in accordance with one or more embodiments, an exemplary system and apparatus will now be considered that may be used to implement the various schemes and techniques described herein.

Genauigkeits- und FehleranalyseAccuracy and error analysis

Bei einer Erweiterte-Realität-Einrichtung kann das Vordergrundemissionslicht als in einem festen Abstand fokussiert präsentiert werden. Ist dem so, so stellen bestimmte Implementierungen der vorliegenden Beschreibung eine Annäherung bereit, bei der kompensierende Grafiken, die von einer Emissionsanzeigeschicht präsentiert werden, in einer Tiefe und mit einer Auflösung, die von der Emissionsanzeigeschicht bestimmt werden, präsentiert werden. Der Direktansichtshintergrund unterliegt jedoch Beschränkungen durch das optische Leistungsvermögen des Auges des Betrachters und das Glas, durch das das Licht hindurchtritt (beispielsweise einschließlich Beugungseffekten von der Dämpfungsanzeigeschicht).In an augmented reality device, the foreground emission light may be presented as being focused at a fixed distance. If so, certain implementations of the present description provide an approximation in which compensating graphics presented by an emissions display layer are presented at a depth and with a resolution determined by the emissions display layer. However, the direct view background is limited by the optical performance of the observer's eye and the glass through which the light passes (for example, including diffraction effects from the attenuation display layer).

Zur Verringerung der wahrnehmbaren Bildartefakte kann eine Replikgrafik (beispielsweise ein Vordergrundkompensationsbild) auf einen möglichst kleinen Grenzbereich (beispielsweise derart, dass eine entsprechende Dämpfungsgrafik weiterhin einen inneren Hellhof eliminieren kann, wenn eine Linsenunschärfe auftritt) und eine möglichst niedrige Helligkeit (beispielsweise derart, dass weiterhin eine wahrnehmbare Helligkeitsnuance für eine äußeren Dunkelhof vermieden wird) beschränkt werden. Ein zusätzlicher Faktor, der die beschriebenen Implementierungen beeinflussen kann, ist das Potenzial einer optischen Fehlausrichtung zwischen Grafiken der Dämpfungsanzeigeschicht und Grafiken der Emissionsanzeigeschicht, was zu einer Unsicherheit der Augenposition führen kann. Es kann zudem eine Fehlausrichtung zwischen geschätzten Ansichten der Hintergrundszene und Licht, das tatsächlich aus dem Hintergrund stammt, vorhanden sein. Die Fehlausrichtung kann durch Fehler bei der Schätzung der Pupillengröße auftreten. Eine sorgfältige Implementierung der hier beschriebenen Techniken kann ermöglichen, dass diese Probleme und Faktoren geeignet behoben werden.To reduce perceptible image artifacts, a replica image (eg, a foreground compensation image) may be as small as possible (e.g., such that a corresponding attenuation map can still eliminate an inner halo when lens blurring occurs) and as low as possible (e.g. perceptible brightness nuance is avoided for an outer dark court). An additional factor that may affect the described implementations is the potential for optical misalignment between attenuation display layer graphics and emissions display layer graphics, which can lead to eye position uncertainty. There may also be misalignment between estimated views of the background scene and light actually coming from the background. The misalignment can occur due to errors in the estimation of pupil size. Careful implementation of the techniques described herein may enable these problems and factors to be properly addressed.

Eine Erweiterte-Realität-Einrichtung kann eine nach vorne gerichtete Kamera beinhalten, die die Berechnung und Auswahl einer Verdeckung durch eine Emissionsgrafik in Bezug auf Realweltobjekte ermöglicht. Dies kann das Vornehmen einer Tiefenschätzung der Realwelt und das Beziehen eines Intensitätsbildes implizieren. Eine derartige Einrichtung und die damit verbundene Funktionalität kann ausreichend sein, um eine Schätzung der Ansicht der Welt so, wie sie von einem oder beiden Augen betrachtet wird, auf Grundlage eines geschätzten Kameramodells zu entwickeln. Aus dieser Information können Tiefen geschätzt werden, und es können durch eine Kamera erworbene Bilder verzerrt (warped) werden, um als Hintergrundbilder für beschriebene Implementierungen zu dienen.An augmented reality facility may include a front-facing camera that allows for calculation and selection of obscuration by an emission graph in relation to real world objects. This may imply making a depth estimate of the real world and relating an intensity image. Such a device and the functionality associated therewith may be sufficient to develop an estimate of the world's view as viewed by one or both eyes based on an estimated camera model. From this information, depths can be estimated, and images acquired by a camera can be warped to serve as background images for described implementations.

Bei einem optischen System können sich mehrere Formen von Fehlausrichtungen entwickeln. Der geschätzte Hintergrund IB kann sich beispielsweise relativ zum wahren Hintergrund so, wie er von den Augen des Betrachters gesehen wird, verschieben. 16A und 16B zeigen bei 1600A und 1600B zwei Beispiele für simulierte zusammengesetzte Bildansichten, die sich aus einer Fehlausrichtung ergeben. Die zusammengesetzte Bildansicht 1600A zeigt eine Situation, in der der geschätzte Hintergrund relativ zum wahren Hintergrund um drei Pixel in den vertikalen und horizontalen Richtungen verschoben ist. Ein Doppelbild für einige der feineren Details erscheint in dem Hof der Vordergrundgrafik und ist entlang der Horizontlinie am stärksten sichtbar. Dennoch sind die Ergebnisse durchaus akzeptabel, da die Replikgrafik mit dem echten Hintergrund stetig bzw. glatt überblendet wird (cross-dissolved), wenn der Abstand von der Grenze der Vordergrundemissionsgrafik zunimmt (beispielsweise da die Rampenstruktur der Intensitätsreplikmaske ermöglicht, dass die Replikgrafik mit dem wahren Hintergrund überblendet wird, um so das Aussehen der Artefakte zu schwächen). Dieser Typ von Fehlausrichtung tritt wahrscheinlich infolge eines Rekonstruktionsfehlers des Kamera/Geometrie-Erfassungssystems oder infolge einer Kopfbewegung des Nutzers auf. Die inhärente Latenz des Kamera- und Grafiksystems bewirkt, dass der geschätzte Hintergrund gegenüber den Ground-truth-Gegebenheiten verschoben ist. Fortgeschrittene erfassende und mit niedriger Latenz arbeitende Wiedergabearchitekturen können jedoch wenigstens teilweise mit Dreh- oder anderen Bewegungen umgehen, um diese Effekte zu minimieren.In an optical system, multiple forms of misalignment may develop. For example, the estimated background I B may shift relative to the true background as viewed by the viewer's eyes. 16A and 16B show 1600A and 1600B two examples of simulated composite image views resulting from misalignment. The composite picture view 1600A Fig. 11 shows a situation where the estimated background is shifted by three pixels in the vertical and horizontal directions relative to the true background. A double image for some of the finer details appears in the courtyard of the foreground graphic and is most visible along the horizon line. However, the results are quite acceptable because the replica graphic is cross-dissolved with the true background as the distance from the foreground emission graphics boundary increases (for example, because the intensity replica mask ramp structure allows the replica graphic to be true) Background is faded to weaken the appearance of the artifacts). This type of misalignment is likely due to a reconstruction error of the camera / geometry detection system or due to head movement of the user. The inherent latency of the camera and graphics system causes the estimated background to be shifted from the ground truth conditions. However, advanced capturing and low latency rendering architectures can at least sometimes use rotary or other movements to minimize these effects.

Die zusammengesetzte Bildansicht 1600B zeigt eine zweite Form von Fehlausrichtung, die auftreten kann, wenn die unscharfe Dämpfungslage für die Dämpfungsanzeigeschicht relativ zu ihrer geschätzten Position für die Emissionsanzeigeschicht versetzt ist. Dies kann infolge einer Paralachse zwischen den Emissions- und Dämpfungsanzeigeschichten in Kombination mit einem Augenpositionsschätzungsfehler (beispielsweise wenn die Pupillenposition relativ zur Anzeige ungenau geschätzt ist) auftreten. Dies führt zu einer Verdunkelung des Hofes auf einer Seite und einer Aufhellung des Hofes auf der anderen Seite, wie bei der Fehlausrichtung um drei Pixel gezeigt ist. Der Grad der Helligkeitsverschiebung hängt von der Steigung (slope) der unscharfen Dämpfungsgrafik ab. Für verdeckende Objekte, die stärker außerhalb des Fokus sind, ist die Verschiebung weniger anfällig für eine Fehlausrichtung. Ähnliche Artefakte treten bei anderen Schätzungsfehlern in der Verdeckungsgeometrie auf, darunter bei Drehung und Skalierung der geschätzten Verdeckungsgeometrie im Vergleich zu den Ground-Truth-Gegebenheiten.The composite picture view 1600B Figure 12 shows a second form of misalignment that may occur when the fuzzy attenuation map for the attenuation display layer is offset relative to its estimated position for the emission display layer. This can occur due to a parallax between the emission and attenuation display layers in combination with an eye position estimation error (for example, if the pupil position is estimated inaccurate relative to the display). This results in a dimming of the yard on one side and a lightening of the yard on the other side, as shown by the misalignment of three pixels. The degree of brightness shift depends on the slope of the blurred attenuation graph. For obscuring objects that are more out of focus, the shift is less susceptible to misalignment. Similar artifacts occur in other estimation errors in the masking geometry, including rotation and scaling of the estimated masking geometry as compared to ground truth conditions.

Ein sichtbarer Artefakt kann als Ergebnis von Fehlern bei der Schätzung des Pupillendurchmessers des Auges auftreten (beispielsweise wenn eine Defokussierung vorhanden ist, um das verdeckende Objekt unscharf zu machen). 17A und 17B zeigen bei 1700A und 1700B zwei Beispiele für simulierte zusammengesetzte Bildansichten, die sich aus der Überbetonung der Effekte einer Bildunschärfe ergeben. Insbesondere ist eine tatsächliche Linsenunschärfe für eine Dämpfungsgrafik um 10% kleiner als die geschätzte Unschärfe, die für die simulierte zusammengesetzte Bildansicht 1700A verwendet wird, und es ist die tatsächliche Linsenunschärfe für eine Dämpfungsgrafik um 20% kleiner als die geschätzte Unschärfe, die für die simulierte zusammengesetzte Bildansicht 1700B verwendet wird. Eine Hof um die Vordergrundgrafik herum ist bei einem Fehler von 10% kaum zu sehen, ist jedoch bei einem Fehler von 20% stärker sichtbar.A visible artifact may occur as a result of errors in the estimation of the pupil diameter of the eye (for example, if defocusing is present to blur the obscuring object). 17A and 17B show 1700A and 1700B two examples of simulated composite image views that result from overemphasizing the effects of image blur. In particular, an actual lens blur for an attenuation graph is 10% less than the estimated blur that is for the simulated composite image view 1700A is used, and the actual lens blur for an attenuation graph is 20% less than the estimated blur for the simulated composite image view 1700B is used. A court around the foreground graphic is barely visible with a 10% error, but is more visible with a 20% error.

18A und 18B zeigen bei 1800A und 1800B zwei Beispiele für simulierte zusammengesetzte Bildansichten, die sich aus einer Unterbetonung der Effekte der Bildunschärfe ergeben. Insbesondere ist die tatsächliche Linsenunschärfe für eine Dämpfungsgrafik um 3% größer als die geschätzte Unschärfe, die für die simulierte zusammengesetzte Bildansicht 1800A verwendet wird, und es ist die tatsächliche Linsenunschärfe für eine Dämpfungsgrafik um 10% größer als die geschätzte Unschärfe, die für die simulierte zusammengesetzte Bildansicht 1800B verwendet wird. Ein Hof erscheint um die Vordergrundgrafik herum, der bei einem Fehler von 3% kaum sichtbar ist, jedoch bei einem Fehler von 10% erheblich stärker sichtbar ist. Dies impliziert, dass ein Beispiel für einen geeigneten Richtwert zur Pupillengrößenschätzungsgenauigkeit kleiner oder gleich 3% ist, um potenziellen Pupillengrößenschätzungsproblemen geeignet Rechnung zu tragen. 18A and 18B show 1800A and 1800B two examples of simulated composite image views that result from under-emphasizing the effects of image blur. In particular, the actual lens blur for an attenuation graph is 3% greater than the estimated blur that is for the simulated composite image view 1800A is used, and it is the actual lens blur for a damping graph 10% greater than the estimated blur, which for the simulated composite image view 1800B is used. A court appears around the foreground graphics, barely visible on a 3% error, but much more visible with a 10% error. This implies that an example of a suitable guideline for pupil size estimation accuracy is less than or equal to 3% to properly account for potential pupil size estimation problems.

Eine zusätzliche Form von Fehler kann infolge der Einstellung der Augen des Nutzers auf verschiedene Tiefen auftreten. 19A und 19B zeigen bei 1900A und 1900B zwei Beispiele für simulierte zusammengesetzte Bildansichten, die sich daraus ergeben, dass ein Nutzer in einer anderen Tiefe oder Ebene als derjenigen des Hintergrundes fokussiert. Insbesondere zeigen die Bilder von 19A und 19B den Effekt der Einstellung, wenn der Nutzer auf die Vordergrundgrafik fokussiert und die Hintergrundgrafik daher unscharf ist. Ein im Fokus befindlicher Hof ist um die Vordergrundgrafik herum in beiden zusammengesetzten Bildansichten sichtbar. In der simulierten zusammengesetzten Bildansicht 1900A ist ein vergleichsweise schwacher Hof um die Vordergrundgrafik herum vorhanden, wobei der von der Replik stammende Hof ein klareres (crisp) Niveau der Details als der übrige Hintergrund aufweist. In der simulierten zusammengesetzten Bildansicht 1900B ist ein vergleichsweise stärker sichtbarer Hof um die Vordergrundgrafik herum sichtbar. Die zusammengesetzte Bildansicht 1900B zeigt den Hintergrund, der unscharf ist, wenn eine Linsenunschärfe verwendet wird, die doppelt so groß wie diejenige der zusammengesetzten Bildansicht 1900A ist. Infolgedessen ist der im Fokus befindliche Hof stärker gegenüber dem vergleichsweise unschärferen Hintergrund der zusammengesetzten Bildansicht 1900B sichtbar.An additional form of error can occur as a result of the user's eyes being set to different depths. 19A and 19B show 1900A and 1900B Two examples of simulated composite image views resulting from a user focusing in a different depth or plane than the background. In particular, the pictures of 19A and 19B the effect of the adjustment when the user focuses on the foreground image and the background image is blurred. A focused yard is visible around the foreground image in both composite image views. In the simulated composite image view 1900A There is a comparatively weak yard around the foreground graphics, with the replica yard having a crisper level of detail than the rest of the background. In the simulated composite image view 1900B a comparatively more visible courtyard is visible around the foreground graphics. The composite picture view 1900B shows the background that is out of focus when using a lens blur that is twice that of the composite image view 1900A is. As a result, the focus on the farm is stronger than the comparatively blurred background of the composite image view 1900B visible, noticeable.

Der Effekt dieses Problems kann durch Defokussieren der Replikgrafik (beispielsweise des geschätzten Hintergrundes) unter Verwendung einer Tiefeninformation und einer Schätzung der Feldtiefe für die Augen, die auf der Pupillengröße und der Augenkonvergenz beruht, verbessert werden. Beruhen kann das Defokussieren (beispielsweise unter Einsatz einer Hardwarelösung) beispielsweise auf dem Anpassen der erfassenden Kamera derart, dass diese eine ähnliche Feldtiefe und Fokustiefe wie das menschliche Auge aufweist, oder es kann auf Grundlage eines synthetisierten Effektes unter Verwendung einer Tiefenabbildung bzw. Karte und von Bildfiltern (beispielsweise eher unter Einsatz einer Softwarelösung) realisiert werden. Alternativ kann die Szene unter Verwendung einer Hellfeld- bzw. Lichtfeldkamera aufgenommen werden. Eine geeignete Fokaltiefe kann durch Nachverfolgen der Augen des Nutzers sowie unter Verwendung der Konvergenz der Augen zur Schätzung der Tiefeneinstellung bestimmt werden. Diese Arten von Artefakten sind jedoch gegebenenfalls akzeptabel, ohne dass die Fokustiefe eingestellt wird, wenn ein vergleichsweise geringer Grad der Unschärfe involviert ist, so beispielsweise demjenigen, der in der simulierten zusammengesetzten Bildansicht 1900A gezeigt ist.The effect of this problem can be improved by defocusing the replica graphic (e.g., the estimated background) using depth information and eye depth estimation based on pupil size and eye convergence. For example, defocusing (using, for example, a hardware solution) may be based on adjusting the capturing camera to have a similar depth of field and depth of focus as the human eye, or may be based on a synthesized effect using a depth map Image filtering (for example, rather using a software solution) can be realized. Alternatively, the scene may be captured using a brightfield camera. An appropriate depth of focus can be determined by tracking the user's eyes and using the convergence of the eyes to estimate the depth setting. However, these types of artifacts may be acceptable without setting the depth of focus, if a comparatively low degree blur, such as the one in the simulated composite image view 1900A is shown.

Ein weiteres Problem kann auftreten, wenn der Nutzer sich auf den Hintergrund einstellt, was bewirken kann, dass der Vordergrund unscharf ist. 20 zeigt ein Beispiel für eine simulierte zusammengesetzte Bildansicht 2000, die sich daraus ergibt, dass ein Nutzer auf die Tiefe des Hintergrundes fokussiert. Als Folge hiervon umgibt ein unscharfer replikbasierter Hof die Vordergrundgrafik, da die Emissionsanzeigeschicht für das Auge außerhalb des Fokus ist. Um diesen Effekt zu vermeiden, kann eine Lichtfeldvordergrundoptikschicht implementiert werden. Alternativ kann eine mehrere Ebenen aufweisende Emissionsanzeigeschicht verwendet werden, in der die Fokaltiefe einer Grafik im Vordergrund dadurch angepasst werden sein, dass eingestellt ist, auf welcher Tiefenebene jedes Emissionspixel präsentiert wird. Bei einer mehrere Ebenen aufweisenden Emissionsanzeigeschicht werden Bildkompensationspixel einer Replikgrafik auf der Tiefenebene so, dass sie am besten zur Hintergrundtiefe für jedes entsprechende Pixel passen, platziert.Another problem can occur when the user adjusts to the background, which can cause the foreground to be blurry. 20 shows an example of a simulated composite image view 2000 that results from a user focusing on the depth of the background. As a result, a blurred replica-based halo surrounds the foreground image because the emission display layer is out of focus for the eye. To avoid this effect, a light field foreground optical layer can be implemented. Alternatively, a multi-level emission display layer may be used in which the focal depth of a graph in the foreground may be adjusted by adjusting at which depth level each emission pixel is presented. In a multi-level emission display layer, image compensation pixels of a replica graphic are placed on the depth plane to best match the background depth for each corresponding pixel.

Exemplarisches System und exemplarische VorrichtungExemplary system and exemplary device

21 zeigt allgemein bei 2100 ein exemplarisches System, das eine exemplarische Rechenvorrichtung 2102 beinhaltet, die ein oder mehrere Rechensysteme oder eine oder mehrere Rechenvorrichtungen darstellt, die die verschiedenen hier beschriebenen Techniken implementieren können. Dies ist durch die Einbeziehung eines Bildkompensationsmoduls 118 dargestellt, das die vorstehend beschriebenen Betriebsvorgänge ausführen kann. Eine Rechenvorrichtung 2102 kann beispielsweise als Rechenvorrichtung 112 (siehe 1) implementiert sein, die mit einer Erweiterte-Realität-Einrichtung 180 für einen Nutzer 110 gekoppelt oder integriert ist. Die Rechenvorrichtung 2102 kann bewirken, dass eine oder mehrere Anzeigeschichten der Erweiterte-Realität-Einrichtung dem Nutzer 110 synthetische grafische Bilder präsentieren. Implementiert sein kann eine Rechenvorrichtung 2102 im Allgemeinen beispielsweise als Endnutzervorrichtung (beispielsweise als Smartphone) eines Nutzers 110, als firmeneigene Vorrichtung (beispielsweise als serverseitige Vorrichtung oder als Datenzentralhardware), als chipinternes System (on-chip system) oder SOC-System (System-on-a-Chip SOC) (das beispielsweise mit der Erweiterte-Realität-Einrichtung 108 integriert ist) oder als beliebige andere geeignete Rechenvorrichtung oder als solches Rechensystem. 21 generally indicates 2100 an exemplary system that includes an exemplary computing device 2102 which represents one or more computing systems or one or more computing devices that can implement the various techniques described herein. This is through the inclusion of an image compensation module 118 illustrated, which can perform the operations described above. A computing device 2102 can, for example, as a computing device 112 (please refer 1 ) implemented with an augmented reality facility 180 for a user 110 coupled or integrated. The computing device 2102 may cause one or more enhanced reality device display layers to be presented to the user 110 present synthetic graphic images. A computing device can be implemented 2102 in general, for example, as an end user device (for example, as a smartphone) of a user 110 , as a proprietary device (for example, as a server-side device or as a data center hardware), as an on-chip system, or system-on-a-chip (SOC) system (such as the augmented reality device 108 integrated) or as any other suitable computing device or as such a computing system.

Bei einer exemplarischen Implementierung arbeitet, wie in 1 gezeigt ist, das Bildkompensationsmodul 118 an einem Ort (beispielsweise innerhalb eines Gehäuses der Erweiterte-Realität-Einrichtung 108). Das Bildkompensationsmodul 118 kann auch in der Cloud (beispielsweise auf einer netzwerkseitigen Rechenvorrichtung) arbeiten, wenn die Übertragungslatenz ausreichend klein ist, wobei eine derartige exemplarische Implementierung ebenfalls in 21 gezeigt ist. Alternativ kann wenigstens ein Abschnitt des Bildkompensationsmoduls 118 sowohl auf einer clientseitigen Rechenvorrichtung wie auch auf einer serverseitigen Rechenvorrichtung arbeiten. Bei einer derartigen Implementierung können die Betriebsvorgänge, die durch das Bildkompensationsmodul 118 der vorstehenden Beschreibung implementiert sind, über eine Client-Server-Architektur verteilt sein.An exemplary implementation works as in 1 shown is the image compensation module 118 at a location (for example, within an enclosure of the augmented reality facility 108 ). The image compensation module 118 can also operate in the cloud (eg, on a network-side computing device) if the transmission latency is sufficiently small, such an exemplary implementation also being described in US Pat 21 is shown. Alternatively, at least a portion of the image compensation module 118 working on both a client-side computing device and a server-side computing device. In such an implementation, the operations performed by the image compensation module 118 described above are distributed across a client-server architecture.

Die exemplarische Rechenvorrichtung 2102 beinhaltet, wie dargestellt ist, wenigstens ein Verarbeitungssystem 2104, ein oder mehrere computerlesbare Medien 2106 sowie eine oder mehrere I/O-Schnittstellen 2108, die kommunikativ miteinander gekoppelt sein können. Obwohl dies nicht explizit gezeigt ist, kann die Rechenvorrichtung 2102 des Weiteren einen Systembus oder ein anderes Daten- und Befehlsübertragungssystem beinhalten, das die verschiedenen Komponenten miteinander koppelt. Ein System kann eine beliebige Busstruktur oder auch eine Kombination aus verschiedenen Busstrukturen sein, so beispielsweise ein Speicherbus oder ein Speichercontroller, ein Peripheriebus, ein universeller serieller Bus oder ein Prozessor oder lokaler Bus, der eine große Vielzahl von Busarchitekturen verwendet. Eine Vielzahl von anderen Beispielen ist ebenfalls einbezogen, so beispielsweise Steuer- bzw. Regel- und Datenleitungen.The exemplary computing device 2102 includes, as shown, at least one processing system 2104 , one or more computer-readable media 2106 and one or more I / O interfaces 2108 that can be communicatively coupled with each other. Although not explicitly shown, the computing device may 2102 further include a system bus or other data and command transfer system that couples the various components together. A system may be any bus structure or even a combination of different bus structures, such as a memory bus or a memory controller, a peripheral bus, a universal serial bus, or a processor or local bus employing a wide variety of bus architectures. A variety of other examples are also included, such as control and data lines.

Das Verarbeitungssystem 2104 stellt eine Funktionalität zur Durchführung eines oder mehrerer Betriebsvorgänge unter Verwendung von Hardware bereit. Entsprechend ist das Verarbeitungssystem 2104 derart dargestellt, dass es ein oder mehrere Hardwareelemente 2110 beinhaltet, die als Prozessoren, funktionelle Blöcke und dergleichen mehr konfiguriert sein können. Dies kann eine Implementierung in Hardware als anwendungsspezifische integrierte Schaltung (ASIC), als Allzweckprozessor oder als andere logische Vorrichtung, die beispielsweise unter Verwendung eines oder mehrerer Halbleiter gebildet ist, beinhalten. Die Hardwareelemente 2110 sind nicht durch die Materialien, aus denen sie gebildet sind, oder die hierbei eingesetzten Verarbeitungsmechanismen beschränkt. So können die Prozessoren beispielsweise aus einem Halbleiter/Halbleitern und/oder Transistoren (beispielsweise elektronische integrierte Schaltungen (ICs)) gebildet sein. In diesem Zusammenhang können prozessorausführbare Anweisungen auch elektronisch ausführbare Anweisungen sein.The processing system 2104 provides functionality to perform one or more operations using hardware. Accordingly, the processing system 2104 represented as having one or more hardware elements 2110 which may be more configured as processors, functional blocks, and the like. This may include an implementation in hardware as an application specific integrated circuit (ASIC), as a general purpose processor, or as another logical device formed using, for example, one or more semiconductors. The hardware elements 2110 are not limited by the materials of which they are formed or the processing mechanisms employed therein. For example, the processors may be formed of a semiconductor / semiconductors and / or transistors (eg, electronic integrated circuits (ICs)). In this context, processor executable instructions may also be electronically executable instructions.

Das computerlesbare Speichermedium 2106 ist derart dargestellt, dass es einen Speicher/eine Ablage 2112 aufweist. Der Speicher/die Ablage 2112 bietet eine Speicher-/Ablagekapazität, die einem oder mehreren computerlesbaren Medien zugeordnet ist. Beinhalten kann die Speicher-/Ablage-Komponente 2112 flüchtige Medien (so beispielsweise einen Speicher mit wahlfreiem Zugriff (RAM)) und/oder nichtflüchtige Medien (so beispielsweise einen Nur-Lese-Speicher (ROM), einen Flash-Speicher, optische Platten oder magnetische Platten). Beinhalten kann die Speicher-/Ablagekomponente 2112 feste Medien (beispielsweise RAM, ROM oder ein festes Festplattenlaufwerk) wie auch entfernbare Medien (beispielsweise eine Flash-Speicherkarte, ein entfernbares Festplattenlaufwerk oder eine optische Platte). Die computerlesbaren Medien 2106 können auf eine Vielzahl von anderen Arten, wie nachstehend noch beschrieben wird, konfiguriert sein. The computer-readable storage medium 2106 is shown as having a memory / shelf 2112 having. The storage / storage 2112 provides a storage / storage capacity associated with one or more computer-readable media. The storage / storage component can be included 2112 volatile media (such as a random access memory (RAM)) and / or non-volatile media (such as a read-only memory (ROM), a flash memory, optical disks, or magnetic disks). This may include the storage / storage component 2112 fixed media (for example, RAM, ROM, or a fixed hard disk drive) as well as removable media (for example, a flash memory card, a removable hard disk drive, or an optical disk). The computer-readable media 2106 can be configured in a variety of other ways as described below.

Die Eingabe-/Ausgabe-Schnittstelle 2108 bietet/die Eingabe-/Ausgabe-Schnittstellen 2108 bieten eine Funktionalität, die einem Nutzer ermöglicht, Befehle oder Information in die Rechenvorrichtung 2102 einzugeben, und die zudem ermöglicht, dass Information dem Nutzer oder anderen Komponenten oder Vorrichtungen unter Verwendung von verschiedenen Eingabe-/Ausgabevorrichtungen präsentiert wird. Beispiele für Eingabevorrichtungen beinhalten eine Tastatur, eine Cursorsteuer- bzw. Regelvorrichtung (beispielsweise eine Maus oder ein Touchpad), ein Mikrofon, einen Scanner, eine Berührungsfunktionalität (beispielsweise kapazitiv, resistiv oder mit anderen Sensoren, die zum Detektieren einer physischen Berührung konfiguriert sind), eine Kamera (beispielsweise eine solche, die sichtbare oder unsichtbare Wellenlängen, so beispielsweise Infrarotfrequenzen, einsetzen kann, um Bewegungen als Gesten, die keine Berührung implizieren, zu erkennen), ein Akzelerometer bzw. einen Beschleunigungsmesser oder eine Kombination hieraus. Beispiele für Ausgabevorrichtungen beinhalten eine Anzeigevorrichtung (beispielsweise einen LCD- oder LED-Schirm, eine Anzeigeschicht, einen Monitor oder einen Projektor), einen Lautsprecher, einen Drucker, eine Netzwerkkarte, eine haptische Schwingungsvorrichtung oder eine Kombination hieraus. Die Rechenvorrichtung 2102 kann auf eine Vielzahl von Arten, wie nachstehend noch beschrieben wird, konfiguriert sein, um eine ortsnahe oder ortsferne Nutzerinteraktion zu unterstützen.The input / output interface 2108 provides / the input / output interfaces 2108 Provide functionality that allows a user to send commands or information to the computing device 2102 and that also allows information to be presented to the user or other components or devices using various input / output devices. Examples of input devices include a keyboard, a cursor control device (eg, a mouse or a touch pad), a microphone, a scanner, touch functionality (eg, capacitive, resistive, or with other sensors configured to detect a physical touch), a camera (eg, one that can use visible or invisible wavelengths, such as infrared frequencies, to detect motion as gestures that do not imply touch), an accelerometer, or a combination thereof. Examples of output devices include a display device (eg, an LCD or LED screen, a display layer, a monitor, or a projector), a speaker, a printer, a network card, a haptic vibrator, or a combination thereof. The computing device 2102 can be configured in a variety of ways, as described below, to support local or remote user interaction.

Verschiedene Techniken sind hier im allgemeinen Kontext von Software- und Hardwareelementen oder Programmmodulen beschrieben worden. Allgemein können derartige Module Routinen, Programme, Objekte, Elemente, Komponenten, Datenstrukturen, Kombinationen hieraus und dergleichen mehr, die bestimmte Aufgaben ausführen oder bestimmte abstrakte Datentypen implementieren, beinhalten. Die Begriffe „Modul”, „Funktionalität” und „Komponente” bezeichnen im Sinne des Vorliegenden allgemein Software, Firmware, Hardware oder eine Kombination hieraus. Die Merkmale der hier beschriebenen Techniken können plattformunabhängig sein, was bedeutet, dass die beschriebenen Techniken auf einer Vielzahl von handelsüblichen Rechenplattformen, die eine Vielzahl von Prozessoren aufweisen, implementiert sein können.Various techniques have been described herein in the general context of software and hardware elements or program modules. Generally, such modules may include routines, programs, objects, elements, components, data structures, combinations thereof, and the like that perform particular tasks or implement particular abstract data types. The terms "module," "functionality," and "component" generally refer to software, firmware, hardware, or a combination thereof as used herein. The features of the techniques described herein may be platform independent, meaning that the described techniques may be implemented on a variety of off-the-shelf computing platforms having a plurality of processors.

Eine Ausführungsform der beschriebenen Module und Techniken kann auf einer beliebigen Form von computerlesbarem Medium gespeichert oder durch dieses übertragen werden. Das computerlesbare Medium 2106 kann eine Vielzahl von Medien beinhalten, auf die durch die Rechenvorrichtung 2102 zugegriffen werden kann. Bei einem Beispiel und nicht beschränkungshalber können die computerlesbaren Medien „computerlesbare Speichermedien” und „computerlesbare Signalmedien” beinhalten.An embodiment of the described modules and techniques may be stored on or transmitted through any form of computer-readable medium. The computer-readable medium 2106 can involve a variety of media, by the computing device 2102 can be accessed. By way of example and not by way of limitation, the computer-readable media may include "computer-readable storage media" and "computer-readable signal media."

„Computerlesbare Speichermedien” bezeichnen im Sinne des Vorliegenden Medien oder Vorrichtungen, die eine dauerhafte und/oder nichttemporäre Speicherung von Information ermöglichen, im Gegensatz zur bloßen Signalübertragung, zu Trägerwellen oder Signalen als solche. Daher beinhalten computerlesbare Speichermedien keine Signale oder signaltragenden Medien als solche. Die computerlesbaren Speichermedien beinhalten Hardware, so beispielsweise flüchtige und nichtflüchtige, entfernbare und nichtentfernbare Medien oder Speichervorrichtungen zur Implementierung bei einem Prozess oder einer Technologie, die zur Speicherung von Information geeignet ist, so beispielsweise computerlesbare Anweisungen, Datenstrukturen, Programmmodule, logische Elemente/Schaltungen oder andere Daten. Beinhalten können Beispiele für computerlesbare Speichermedien unter anderem RAM, ROM, EEPROM, einen Flash-Speicher oder eine andere Speichertechnologie, so beispielsweis Solid State, CD-ROM, DVD oder einen anderen optischen Speicher, Festplatten, magnetische Kassetten, Magnetbänder, magnetische Plattenspeicher oder andere magnetische Speichervorrichtungen, oder eine andere Speichervorrichtung, physische Medien oder ein Herstellungserzeugnis und eine Kombination hieraus mit der Fähigkeit, die gewünschte Information so zu speichern, dass ein Computer darauf zugreifen kann."Computer-readable storage media" as used herein refers to media or devices that allow for permanent and / or non-temporary storage of information, as opposed to mere signal transmission, to carrier waves or signals as such. Therefore, computer readable storage media does not include signals or signal carrying media as such. The computer readable storage media include hardware such as volatile and nonvolatile, removable and non-removable media or memory devices for implementation in a process or technology suitable for storage of information such as computer readable instructions, data structures, program modules, logic elements / circuits or others Dates. Examples of computer-readable storage media may include, but are not limited to, RAM, ROM, EEPROM, flash memory, or other storage technology, such as solid state, CD-ROM, DVD or other optical storage, hard drives, magnetic cassettes, magnetic tapes, magnetic disk drives, or others magnetic storage devices, or other storage device, physical media, or a manufactured product, and a combination thereof with the ability to store the desired information so that a computer can access it.

„Computerlesbare Signalmedien” bezeichnen im Sinne des Vorliegenden ein signaltragendes Medium, das dafür implementiert ist, Anweisungen an die Hardware der Rechenvorrichtung 2102 beispielsweise über ein Netzwerk zu übertragen. Computerlesbare Signalmedien können typischerweise computerlesbare Anweisungen, Datenstrukturen, Programmmodule oder andere Daten in einem modulierten Datensignal, so beispielsweise Trägerwellen, Datensignale oder einen anderen Transportmechanismus verkörpern. Computerlesbare Signalmedien können zudem beliebige Informationsverteilungsmedien beinhalten. Der Begriff „moduliertes Datensignal” bezeichnet ein Signal, bei dem eine oder mehrere seiner Eigenschaften derart eingestellt oder verändert sind, dass Information in dem Signal codiert ist. Bei einem Beispiel und nicht beschränkungshalber können computerlesbare Signalmedien verdrahtete Medien, so beispielsweise ein verdrahtetes Netzwerk oder eine direkt verdrahtete Verbindung, wie auch drahtlose Medien, so beispielsweise akustische, hochfrequenzbasierte, infrarote und andere Drahtlosmedien beinhalten."Computer-readable signal media" as used herein refers to a signal carrying medium implemented to provide instructions to the computing device hardware 2102 for example, to transmit over a network. Computer readable signal media may typically include computer readable instructions, data structures, program modules, or other data in a modulated data signal, such as carrier waves, data signals, or another Embody transport mechanism. Computer readable signal media may also include any information distribution media. The term "modulated data signal" refers to a signal in which one or more of its characteristics are set or changed such that information in the signal is encoded. By way of example, and not by way of limitation, computer-readable signal media may include wired media, such as a wired network or a direct-wired connection, as well as wireless media, such as acoustic, radio frequency-based, infrared, and other wireless media.

Wie vorstehend beschrieben worden ist, können Hardwareelemente 2110 und computerlesbare Medien 2106 Module, eine programmierbare Vorrichtungslogik, eine feste Vorrichtungslogik, eine Kombination hieraus und dergleichen mehr bezeichnen, die in Form von Hardware implementiert sind, die bei einigen Implementierungen dafür eingesetzt wird, wenigstens einige Aspekte der hier beschriebenen Techniken zu implementieren, so beispielsweise beim Ausführen einer oder mehrerer Anweisungen oder Rechenschritte. Beinhalten kann die Hardware Komponenten einer integrierten Schaltung (IC) oder eines chipinternen Systems, einer anwendungsspezifischen integrierten Schaltung (ASIC), eines feldprogrammierbaren Gate-Arrays (FPGA), einer komplexen programmierbaren logischen Vorrichtung (CPLD) und anderer Implementierungen in Silizium oder anderer Hardware. In diesem Zusammenhang kann Hardware als Verarbeitungsvorrichtung wirken, die Programmaufgaben ausführt, die durch Anweisungen und/oder eine Logik definiert sind, die durch die Hardware verkörpert ist, wie auch Hardware, die zum Speichern von Anweisungen zur Ausführung verwendet wird, so beispielsweise die vorstehend beschriebenen computerlesbaren Speichermedien.As described above, hardware elements 2110 and computer-readable media 2106 Modules, programmable device logic, fixed device logic, a combination thereof, and the like, which are implemented in hardware, which in some implementations is used to implement at least some aspects of the techniques described herein, such as when executing one or more of these techniques several instructions or calculation steps. The hardware may include integrated circuit (IC) or on-chip system components, an application specific integrated circuit (ASIC), field programmable gate array (FPGA), complex programmable logic device (CPLD), and other implementations in silicon or other hardware. In this regard, hardware may act as a processing device that performs program tasks defined by instructions and / or logic embodied by the hardware, as well as hardware used to store instructions for execution, such as those described above computer-readable storage media.

Es können auch Kombinationen aus dem Vorstehenden zur Implementierung von verschiedenen der hier beschriebenen Techniken eingesetzt werden. Entsprechend können Software, Hardware oder ausführbare Module als eine oder mehrere Anweisungen oder Logik implementiert sein, die in irgendeiner Form von computerlesbaren Speichermedien oder durch ein oder mehrere Hardwareelemente 2110 verkörpert sind. Die Rechenvorrichtung 2102 kann dafür konfiguriert sein, bestimmte Anweisungen oder Funktionen entsprechend den Software- und/oder Hardwaremodulen zu implementieren. Entsprechend ist die als Software erfolgende Implementierung eines Moduls, das von der Rechenvorrichtung 2102 ausführbar ist, auch wenigstens teilweise durch Hardware zu verwirklichen, und zwar beispielsweise unter Verwendung eines computerlesbaren Speichermediums oder von Hardware-Elementen 2110 des Verarbeitungssystems 2104. Die Anweisungen oder Funktionen sind durch ein oder mehrere Herstellungserzeugnisse (beispielsweise eine oder mehrere Rechenvorrichtungen 2102 und/oder Verarbeitungssysteme 2104) ausführbar/betreibbar, um hier beschriebene Techniken, Module und Beispiele auszuführen.Combinations of the foregoing may also be used to implement various of the techniques described herein. Accordingly, software, hardware, or executable modules may be implemented as one or more instructions or logic that may be in any form of computer-readable storage media or by one or more hardware elements 2110 are embodied. The computing device 2102 may be configured to implement certain instructions or functions according to the software and / or hardware modules. Accordingly, the software implementation of a module is that of the computing device 2102 executable, even at least partially realized by hardware, for example, using a computer-readable storage medium or hardware elements 2110 of the processing system 2104 , The instructions or functions are by one or more manufactured products (for example, one or more computing devices 2102 and / or processing systems 2104 ) executable / operable to perform techniques, modules, and examples described herein.

Die hier beschriebenen Techniken können durch verschiedene Konfigurationen der Rechenvorrichtung 2102 unterstützt werden und sollen die spezifischen Aspekte der hier beschriebenen exemplarischen Vorrichtungen nicht beschränken. Diese Funktionalität kann auch gänzlich oder teilweise unter Verwendung eines verteilten Systems implementiert sein, so beispielsweise mittels einer „Cloud” 2114 über eine Plattform 2116, wie nachstehend beschrieben wird.The techniques described herein may be achieved by various configurations of the computing device 2102 and are not intended to limit the specific aspects of the exemplary devices described herein. This functionality can also be implemented in whole or in part using a distributed system, for example by means of a "cloud". 2114 over a platform 2116 as described below.

Die Cloud 2114 kann eine Plattform 2116 für Ressourcen 2118 beinhalten oder darstellen. Die Plattform 2116 abstrahiert eine darunter liegende Hardwarefunktionalität (beispielsweise einen oder mehrere Server oder wenigstens ein Datenzentrum) und Softwareressourcen der Cloud 2114. Die Ressourcen 2118 können Anwendungen bzw. Apps oder Daten beinhalten, die verwendet werden können, während die Computerverarbeitung wenigstens teilweise auf Servern ausgeführt wird, die von der Rechenvorrichtung 2102 entfernt oder um diese herum verteilt sind. Die Ressourcen 2118 können zudem Dienste beinhalten, die über das Internet oder durch ein Teilnehmernetzwerk bereitgestellt werden, so beispielsweise ein zellbasiertes oder Wi-Fi-Netzwerk.The cloud 2114 can be a platform 2116 for resources 2118 include or represent. The platform 2116 abstracts underlying hardware functionality (eg one or more servers or at least one data center) and software resources of the cloud 2114 , The resources 2118 may include applications or data or data that may be used while computer processing is performed at least in part on servers that are hosted by the computing device 2102 removed or distributed around them. The resources 2118 may also include services provided over the Internet or through a subscriber network, such as a cell-based or Wi-Fi network.

Die Plattform 2116 kann Ressourcen und Funktionen zum Verbinden der Rechenvorrichtung 2102 mit anderen Rechenvorrichtungen oder Diensten abstrahieren. Die Plattform 2116 kann zudem dem Abstrahieren einer Skalierung von Ressourcen zur Bereitstellung eines entsprechenden Skalierungsniveaus für bestehenden Bedarf an den Ressourcen 2118, die über die Plattform 2116 implementiert sind, dienen. Entsprechend kann bei einer Ausführungsform mit wechselseitig verbundenen Vorrichtungen die Implementierung einer hier beschriebenen Funktionalität insbesondere in dem dargestellten System von 21 oder wenigstens in der Cloud 2114 zusammen mit der Rechenvorrichtung 2102 verteilt sein. Die Funktionalität kann beispielsweise teilweise auf der Rechenvorrichtung 2102 wie auch über die Plattform 2116, die die Funktionalität der Cloud 2114 abstrahiert, implementiert sein.The platform 2116 can provide resources and functions for connecting the computing device 2102 abstract with other computing devices or services. The platform 2116 may also abstract a scaling of resources to provide a corresponding scaling level for existing resource requirements 2118 that over the platform 2116 are implemented. Accordingly, in one embodiment with interlinked devices, the implementation of a functionality described herein may be particularly useful in the system of FIG 21 or at least in the cloud 2114 together with the computing device 2102 be distributed. The functionality may be partially on the computing device, for example 2102 as well as the platform 2116 that the functionality of the cloud 2114 abstracted, implemented.

Schlussbemerkungconcluding remark

Obwohl die Erfindung in einer Sprache beschrieben worden ist, die für Strukturmerkmale und/oder methodische Vorgänge spezifisch ist, sollte einsichtig sein, dass die in den beigefügten Ansprüchen definierte Erfindung nicht notwendigerweise auf die beschriebenen bestimmten Merkmale oder Vorgänge beschränkt ist. Vielmehr sind die spezifischen Merkmale und Vorgänge als exemplarische Formen der Implementierung der beanspruchten Erfindung offenbart.While the invention has been described in language specific to structural features and / or methodological acts, it is to be understood that the invention as defined in the appended claims is not necessarily limited to the particular features or acts described. Rather, the specific features and acts are disclosed as exemplary forms of implementation of the claimed invention.

Claims (20)

Wenigstens eine in einer Digitalmediumumgebung betreibbare Rechenvorrichtung zum Präsentieren eines synthetischen grafischen Bildes in Zusammenwirkung mit einer Direktansicht einer Realweltszene derart, dass die Sichtbarkeit eines Bildartefaktes verringert wird, wobei die Vorrichtung umfasst: ein Synthetische-Grafik-Modul, das ausgelegt ist zum Beziehen einer Emissionsgrafik und einer Dämpfungsgrafik; ein Hellbereichskompensationsmodul, das ausgelegt ist zum Ergänzen der Dämpfungsgrafik, um eine erweiterte Dämpfungsgrafik auf Grundlage eines Attributes eines Auges eines Nutzers zu produzieren; und ein Anzeigemodul, das ausgelegt ist zum: Anweisen einer Emissionsanzeigeschicht, dem Auge des Nutzers die Emissionsgrafik zu präsentieren; und Anweisen einer Dämpfungsanzeigeschicht, die erweiterte Dämpfungsgrafik zu präsentieren, um Licht der Realweltszene von der Emissionsgrafik fernzuhalten und die Entwicklung eines unbeabsichtigten Hellbereiches an der Emissionsgrafik zu verhindern.At least one computing device operable in a digital media environment to present a synthetic graphical image in conjunction with a direct view of a real world scene such that the visibility of an image artifact is reduced, the device comprising: a synthetic graphics module configured to obtain an emission graphic and a damping graphic; a bright area compensation module configured to supplement the attenuation graph to produce an expanded attenuation graph based on an attribute of a user's eye; and a display module designed to: Instructing an emissions display layer to present the emission graphic to the user's eye; and Instruct an attenuation display layer to present the enhanced attenuation graph to keep light of the real world scene away from the emission graph and prevent the development of an inadvertent bright area on the emission graph. Vorrichtung nach Anspruch 1, wobei das Attribut des Auges des Nutzers einen Wert, der eine Größe des Auges des Nutzers angibt, umfasst.The device of claim 1, wherein the attribute of the user's eye comprises a value indicating a size of the user's eye. Vorrichtung nach Anspruch 2, wobei der Wert, der die Größe des Auges des Nutzers angibt, auf einem Radius einer Pupille des Auges beruht.The device of claim 2, wherein the value indicative of the size of the user's eye is based on a radius of a pupil of the eye. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei das Hellbereichskompensationsmodul des Weiteren ausgelegt ist zum Produzieren der erweiterten Dämpfungsgrafik durch Anwenden eines Faltungskernes, der auf Grundlage des Attributes des Auges des Nutzers eingestellt ist.The apparatus of any one of the preceding claims, wherein the bright area compensation module is further adapted to produce the expanded attenuation graph by applying a convolution kernel set based on the attribute of the user's eye. Vorrichtung nach Anspruch 4, wobei der Faltungskern des Weiteren auf Grundlage eines Abstandes, der von einer Position der Emissionsanzeigeschicht gemessen wird, eingestellt ist.The device of claim 4, wherein the convolution kernel is further adjusted based on a distance measured from a position of the emission display layer. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei das Hellbereichskompensationsmodul des Weiteren ausgelegt ist zum Produzieren der erweiterten Dämpfungsgrafik durch Anwenden eines Minimalfilters, der auf Grundlage des Attributes des Auges des Nutzers eingestellt ist.The apparatus of any one of the preceding claims, wherein the bright area compensation module is further adapted to produce the expanded attenuation graph by applying a minimum filter set based on the attribute of the user's eye. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei der unbeabsichtigte Hellbereich einen inneren Hellhof umfasst, der wenigstens einen Abschnitt der Emissionsgrafik begrenzt.Apparatus as claimed in any one of the preceding claims, wherein the unintentional bright region comprises an inner halo which limits at least a portion of the emission graphic. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei: das Hellbereichskompensationsmodul des Weiteren ausgelegt ist zum Produzieren der erweiterten Dämpfungsgrafik durch Ergänzen einer Dämpfungslage bzw. -matte; und das Anzeigemodul des Weiteren ausgelegt ist zum Anweisen der Dämpfungsanzeigeschicht, die erweiterte Dämpfungsgrafik auf Grundlage der ergänzten Dämpfungslage bzw. -matte zu präsentieren.Device according to one of the preceding claims, wherein: the bright area compensation module is further configured to produce the expanded attenuation graph by supplementing an attenuation pad; and the display module is further configured to instruct the attenuation display layer to present the enhanced attenuation graph based on the supplemental attenuation pad. Vorrichtung nach einem der vorhergehenden Ansprüche, des Weiteren umfassend: ein Dunkelbereichskompensationsmodul, das ausgelegt ist zum Erzeugen einer Replikgrafik, um ein Aussehen der Realweltszene in einem Bereich zu reproduzieren, in dem das Licht von der Direktansicht der Realweltszene durch die erweiterte Dämpfungsgrafik ferngehalten wird, wobei das Anzeigemodul des Weiteren ausgelegt ist zum Anweisen der Emissionsanzeigeschicht, dem Auge des Nutzers die Replikgrafik in dem Bereich zu präsentieren.The device of any one of the preceding claims, further comprising: a dark area compensation module configured to generate a replica graphic to reproduce an appearance of the real world scene in an area where the light is kept away from the direct view of the real world scene by the extended attenuation chart; wherein the display module is further configured to instruct the emission display layer to present to the user's eye the replica artwork in the region. In einer Digitalmediumumgebung betreibbares System zum Präsentieren eines synthetischen grafischen Bildes in Zusammenwirkung mit einer Direktansicht einer Realweltszene derart, dass die Sichtbarkeit eines Bildartefaktes verringert wird, wobei das System umfasst: eine Kamera, die ausgelegt ist zum Detektieren von Licht, das die Realweltszene darstellt; eine Emissionsanzeigeschicht, die ausgelegt ist zum Präsentieren einer Emissionsgrafik; eine Dämpfungsanzeigeschicht, die ausgelegt ist zum Präsentieren einer Dämpfungsgrafik; ein Dunkelbereichskompensationsmodul, das ausgelegt ist zum: Bestimmen eines unbeabsichtigten Dunkelbereiches, in dem die Dämpfungsgrafik Licht der Realweltszene von einem Auge eines Nutzers fernhält; und Erzeugen einer Replikgrafik für den unbeabsichtigten Dunkelbereich auf Grundlage des Lichtes, das die Realweltszene darstellt; und ein Anzeigemodul, das ausgelegt ist zum Bewirken, dass die Emissionsanzeigeschicht die Replikgrafik präsentiert, um ein Aussehen der Realweltszene in dem unbeabsichtigten Dunkelbereich zu reproduzieren.A digital media environment operable system for presenting a synthetic graphical image in conjunction with a direct view of a real world scene such that the visibility of an image artifact is reduced, the system comprising: a camera designed to detect light representing the real world scene; an emission display layer configured to present an emission graphic; an attenuation display layer configured to present an attenuation graph; a dark area compensation module designed to: Determining an unintended dark area in which the attenuation graph keeps light of the real world scene from an user's eye; and Generating a replica graphic for the unintended dark area based on the light representing the real world scene; and a display module configured to cause the emission display layer to present the replica graphic to reproduce an appearance of the real world scene in the unintended dark area. System nach Anspruch 10, wobei: der unbeabsichtigte Dunkelbereich einen unscharfen unbeabsichtigten Dunkelbereich umfasst; und das Dunkelbereichskompensationsmodul des Weiteren ausgelegt ist zum: Defokussieren einer Grenze einer Dämpfungslage bzw. -matte, um eine unscharfe Dämpfungslage bzw. -matte zu produzieren; und Erzeugen der Replikgrafik auf Grundlage der unscharfen Dämpfungslage bzw. -matte.The system of claim 10, wherein: the unintended dark area comprises a fuzzy unintended dark area; and the dark area compensation module is further adapted to: Defocusing a boundary of an attenuation pad to produce a fuzzy cushion; and generating the replica graphic based on the fuzzy cushion. System nach Anspruch 11, wobei das Dunkelbereichskompensationsmodul des Weiteren ausgelegt ist zum Erzeugen der Replikgrafik auf Grundlage einer scharfen Dämpfungslage, die der Emissionsgrafik zugeordnet ist.The system of claim 11, wherein the dark area compensation module is further configured to generate the replica graph based on a sharp attenuation map associated with the emission graph. System nach einem der Ansprüche 10 bis 12, wobei das Dunkelbereichskompensationsmodul des Weiteren ausgelegt ist zum Produzieren eines Farbwertes für jedes von mehreren Pixeln der Replikgrafik, um das Aussehen der Realweltszene zu reproduzieren, unter Verwendung von Digitalwerten, die von dem Licht stammen, das die Realweltszene so, wie sie von der Kamera detektiert wird, darstellt.The system of any one of claims 10 to 12, wherein the dark area compensation module is further adapted to produce a color value for each of a plurality of pixels of the replica graphic to reproduce the appearance of the real world scene using digital values derived from the light representing the real world scene as detected by the camera. System nach einem der Ansprüche 10 bis 13, wobei: der unbeabsichtigte Dunkelbereich einen äußeren Dunkelhof umfasst, der wenigstens einen Abschnitt der Emissionsgrafik begrenzt; und das Anzeigemodul des Weiteren ausgelegt ist zum Bewirken, dass die Emissionsanzeigeschicht die Replikgrafik benachbart zu der Emissionsgrafik präsentiert, um den äußeren Dunkelhof zu kompensieren.A system according to any one of claims 10 to 13, wherein: the unintended dark area comprises an outer dark courtyard that delimits at least a portion of the emission graphic; and the display module is further configured to cause the emission display layer to present the replica graphic adjacent the emission graphic to compensate for the outer dark courtyard. System nach einem der Ansprüche 10 bis 14, des Weiteren umfassend: ein Hellbereichskompensationsmodul, das ausgelegt ist zum Ergänzen der Dämpfungsgrafik, um eine Grenze der Dämpfungsgrafik über einen Rand der Emissionsgrafik hinaus zu erweitern, um den unbeabsichtigten Dunkelbereich zwischen dem Rand der Emissionsgrafik und der erweiterten Grenze der Dämpfungsgrafik zu erstellen, wobei: das Dunkelbereichskompensationsmodul des Weiteren ausgelegt ist zum Erzeugen der Replikgrafik vom Rand der Emissionsgrafik zu der erweiterten Grenze der Dämpfungsgrafik auf Grundlage des Lichtes, das die Realweltszene darstellt; und das Anzeigemodul des Weiteren ausgelegt ist zum Bewirken, dass die Emissionsanzeigeschicht die Emissionsgrafik präsentiert.The system of any one of claims 10 to 14, further comprising: a light area compensation module adapted to supplement the attenuation graph to expand a boundary of the attenuation graph past an edge of the emission graph to create the unintended dark area between the edge of the emission graph and the expanded boundary of the attenuation graph, wherein: the dark area compensation module is further configured to generate the replica graphic from the edge of the emission graph to the extended boundary of the attenuation graph based on the light representing the real world scene; and the display module is further configured to cause the emission display layer to present the emission graphic. Von einer Rechenvorrichtung in einer Digitalmediumumgebung implementiertes Verfahren zum Präsentieren eines synthetischen grafischen Bildes in Zusammenwirkung mit einer Direktansicht einer Realweltszene derart, dass die Sichtbarkeit eines Bildartefaktes verringert wird, wobei das Verfahren umfasst: durch die Rechenvorrichtung erfolgendes Beziehen einer Emissionsgrafik; durch die Rechenvorrichtung erfolgendes Ergänzen einer Dämpfungslage bzw. -matte zum Produzieren einer erweiterten Dämpfungslage bzw. -matte; durch die Rechenvorrichtung erfolgendes Defokussieren der erweiterten Dämpfungslage bzw. -matte zum Produzieren einer unscharfen Dämpfungslage bzw. -matte; durch die Rechenvorrichtung erfolgendes Erzeugen einer Replikgrafik auf Grundlage der unscharfen Dämpfungslage bzw. -matte und der Emissionsgrafik, wobei die Replikgrafik dem Reproduzieren eines Aussehens der Realweltszene dient; durch die Rechenvorrichtung erfolgendes Bewirken, dass die Dämpfungsanzeigeschicht eine erweiterte Dämpfungsgrafik unter Verwendung der erweiterten Dämpfungslage bzw. -matte präsentiert; und durch die Rechenvorrichtung erfolgendes Bewirken, dass eine Emissionsanzeigeschicht einem Nutzer die Emissionsgrafik und die Replikgrafik präsentiert.A method implemented by a computing device in a digital media environment for presenting a synthetic graphical image in conjunction with a direct view of a real world scene such that the visibility of an image artifact is reduced, the method comprising: obtaining an emission graph by the computing device; adding a damping layer or mat to produce an expanded damping layer or mat by the computing device; defocusing the extended damping pad or mat by the computing device to produce a fuzzy damping pad or mat; generating, by the computing device, a replica graphic based on the fuzzy matte and the emission graphics, wherein the replica graphic is for reproducing an appearance of the real world scene; causing the computing device to cause the attenuation display layer to present an enhanced attenuation graph using the expanded attenuation map; and causing the computing device to cause an emission display layer to present the emission graphic and the replica graphic to a user. Verfahren nach Anspruch 16, wobei: das Ergänzen ein Produzieren der erweiterten Dämpfungslage auf Grundlage eines Attributes eines Auges des Nutzers umfasst; und das Defokussieren ein Produzieren der unscharfen Dämpfungslage auf Grundlage des Attributes des Auges des Nutzers umfasst.The method of claim 16, wherein: completing comprises producing the expanded attenuation attitude based on an attribute of an eye of the user; and defocusing involves producing the blurred cushioning based on the attribute of the user's eye. Verfahren nach Anspruch 16 oder 17, wobei: die Emissionsgrafik eine Benachrichtigungsangabe, die von einer Mobilvorrichtung bereitgestellt wird, umfasst; und das Bewirken, dass die Dämpfungsanzeigeschicht die erweiterte Dämpfungsgrafik präsentiert, ein Bewirken dessen umfasst, dass die Dämpfungsanzeigeschicht die erweiterte Dämpfungsgrafik präsentiert, um Licht der Realweltszene von der Emissionsgrafik und von der Replikgrafik fernzuhalten, wobei die Dämpfungsanzeigeschicht zwischen der Emissionsanzeigeschicht und der Realweltszene positioniert ist.A method according to claim 16 or 17, wherein: the emission graphic comprises a notification indication provided by a mobile device; and causing the attenuation display layer to present the augmented attenuation graph, comprising causing the attenuation display layer to present the augmented attenuation graph to keep light of the real world scene from the emission graph and the replica graph, the attenuation display layer being positioned between the emission display layer and the real world scene. Verfahren nach einem der Ansprüche 16 bis 18, des Weiteren umfassend: durch die Rechenvorrichtung erfolgendes Beziehen von Daten, die Licht entsprechen, das die Realweltszene so, wie sie von einer Kamera detektiert wird, darstellt, wobei das Erzeugen ein Erzeugen der Replikgrafik zum Reproduzieren des Aussehens der Realweltszene unter Verwendung der Daten zum Bestimmen von Werten für Pixel der Replikgrafik umfasst.The method of any one of claims 16 to 18, further comprising: by the computing device, obtaining data corresponding to light representing the real world scene as detected by a camera, wherein generating comprises generating the replica graphic for reproducing the appearance of the real world scene using the data for determining values for pixels of the replica graphic. Verfahren nach einem der Ansprüche 16 bis 19, wobei: das Ergänzen ein Ergänzen der Dämpfungslage zum Kompensieren eines potenziellen inneren Hellhofes umfasst; das Defokussieren ein Defokussieren der erweiterten Dämpfungslage umfasst, um einer Linsenunschärfe durch ein Auge des Nutzers gerecht zu werden; und das Erzeugen ein Erzeugen der Replikgrafik zum Reproduzieren des Aussehens der Realweltszene zum Kompensieren eines potenziellen äußeren Dunkelhofes umfasst.The method of any one of claims 16 to 19, wherein: the supplementing comprises supplementing the damping layer to compensate for a potential inner halo; the defocusing comprises defocusing the extended attenuation layer to accommodate lens blurring by an eye of the user; and generating comprises generating the replica graphic for reproducing the appearance of the real world scene to compensate for a potential outer dark courtyard.
DE102016013766.5A 2016-04-19 2016-11-17 Image compensation for a masking, direct-view augmented reality system Pending DE102016013766A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/133,025 2016-04-19
US15/133,025 US10134198B2 (en) 2016-04-19 2016-04-19 Image compensation for an occluding direct-view augmented reality system

Publications (1)

Publication Number Publication Date
DE102016013766A1 true DE102016013766A1 (en) 2017-10-19

Family

ID=57993694

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016013766.5A Pending DE102016013766A1 (en) 2016-04-19 2016-11-17 Image compensation for a masking, direct-view augmented reality system

Country Status (5)

Country Link
US (3) US10134198B2 (en)
CN (1) CN107306332B (en)
AU (1) AU2016259427B2 (en)
DE (1) DE102016013766A1 (en)
GB (1) GB2549563B (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10134198B2 (en) 2016-04-19 2018-11-20 Adobe Systems Incorporated Image compensation for an occluding direct-view augmented reality system
CA3045780A1 (en) * 2017-01-30 2018-08-02 Novartis Ag Systems and method for augmented reality ophthalmic surgical microscope projection
CN106773060B (en) * 2017-02-10 2019-05-10 京东方科技集团股份有限公司 Wear-type virtual reality device
US10403045B2 (en) 2017-08-11 2019-09-03 Adobe Inc. Photorealistic augmented reality system
US10782776B2 (en) * 2017-09-28 2020-09-22 Nissan North America, Inc. Vehicle display configuration system and method
US10991138B2 (en) * 2017-12-22 2021-04-27 The Boeing Company Systems and methods for in-flight virtual reality displays for passenger and crew assistance
TWI675583B (en) * 2018-07-23 2019-10-21 緯創資通股份有限公司 Augmented reality system and color compensation method thereof
CN109714583B (en) * 2019-01-22 2022-07-19 京东方科技集团股份有限公司 Augmented reality display method and augmented reality display system
KR20210123198A (en) * 2020-04-02 2021-10-13 주식회사 제이렙 Argumented reality based simulation apparatus for integrated electrical and architectural acoustics
US11423621B1 (en) * 2020-05-21 2022-08-23 Facebook Technologies, Llc. Adaptive rendering in artificial reality environments
CN114578554B (en) * 2020-11-30 2023-08-22 华为技术有限公司 Display equipment for realizing virtual-real fusion
US11295531B1 (en) * 2021-02-24 2022-04-05 Allison Cecile Westley System and method for generating interactive virtual image frames in an augmented reality presentation
CN113419630B (en) * 2021-06-28 2022-12-13 西北工业大学 Projection AR-based adaptive occlusion elimination method
WO2023283376A1 (en) * 2021-07-08 2023-01-12 Hover Inc. Methods, storage media, and systems for integrating data streams to generate visual cues
TWI828397B (en) * 2021-11-18 2024-01-01 東陽實業廠股份有限公司 Intelligent transparent shading system
KR20230103379A (en) * 2021-12-31 2023-07-07 삼성전자주식회사 Method and apparatus for processing augmented reality
CN115512083B (en) * 2022-09-20 2023-04-11 广西壮族自治区地图院 Multi-inclination-angle numerical control sand table self-adaptive projection method

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517580A (en) 1991-06-19 1996-05-14 Texas Instruments Incorporated Method for estimating the shape of an object from IR image shading
JPH05328260A (en) * 1992-05-26 1993-12-10 Olympus Optical Co Ltd Head mount type display device
US6636627B1 (en) 1999-07-12 2003-10-21 Fuji Photo Film Co., Light source direction estimating method and apparatus
AU2002239328A1 (en) 2000-11-08 2002-05-27 Yale University Illumination based image synthesis
JP3767541B2 (en) 2002-11-12 2006-04-19 ソニー株式会社 Light source estimation apparatus, light source estimation method, imaging apparatus, and image processing method
JP4898459B2 (en) 2004-02-17 2012-03-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Depth map generation
EP2160037A3 (en) * 2006-06-23 2010-11-17 Imax Corporation Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition
JP5448617B2 (en) 2008-08-19 2014-03-19 パナソニック株式会社 Distance estimation device, distance estimation method, program, integrated circuit, and camera
US8289318B1 (en) 2008-08-29 2012-10-16 Adobe Systems Incorporated Determining three-dimensional shape characteristics in a two-dimensional image
US8463072B2 (en) 2008-08-29 2013-06-11 Adobe Systems Incorporated Determining characteristics of multiple light sources in a digital image
US20120188279A1 (en) * 2009-09-29 2012-07-26 Kent Demaine Multi-Sensor Proximity-Based Immersion System and Method
KR101671185B1 (en) 2010-03-22 2016-11-01 삼성전자주식회사 Apparatus and method for extracting light and texture, and rendering apparatus using light and texture
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US20120223885A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
JP2015504616A (en) * 2011-09-26 2015-02-12 マイクロソフト コーポレーション Video display correction based on sensor input of transmission myopia display
JP6157496B2 (en) * 2011-11-30 2017-07-05 コーニング インコーポレイテッド Optical coating methods, equipment, and products
US9330500B2 (en) 2011-12-08 2016-05-03 The Board Of Trustees Of The University Of Illinois Inserting objects into content
US9311751B2 (en) * 2011-12-12 2016-04-12 Microsoft Technology Licensing, Llc Display of shadows via see-through display
CN102568026B (en) * 2011-12-12 2014-01-29 浙江大学 Three-dimensional enhancing realizing method for multi-viewpoint free stereo display
US9117303B2 (en) * 2012-03-25 2015-08-25 Membit Inc. System and method for defining an augmented reality view in a specific location
CN103472909B (en) 2012-04-10 2017-04-12 微软技术许可有限责任公司 Realistic occlusion for a head mounted augmented reality display
US8970626B2 (en) 2012-04-17 2015-03-03 Nvidia Corporation System, method, and computer program product for adding computer-generated scene elements into a representation of a real-world scene, using path tracing
GB201217721D0 (en) * 2012-10-03 2012-11-14 Holition Ltd Video image processing
US9448404B2 (en) * 2012-11-13 2016-09-20 Qualcomm Incorporated Modifying virtual object display properties to increase power performance of augmented reality devices
US10514541B2 (en) * 2012-12-27 2019-12-24 Microsoft Technology Licensing, Llc Display update time reduction for a near-eye display
US9858721B2 (en) 2013-01-15 2018-01-02 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for generating an augmented scene display
US10488535B2 (en) * 2013-03-12 2019-11-26 Rearden, Llc Apparatus and method for capturing still images and video using diffraction coded imaging techniques
US9639964B2 (en) * 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
US9230473B2 (en) * 2013-06-24 2016-01-05 Microsoft Technology Licensing, Llc Dual duty cycle OLED to enable dynamic control for reduced motion blur control with constant brightness in augmented reality experiences
US9299188B2 (en) 2013-08-08 2016-03-29 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
US9285872B1 (en) * 2013-12-12 2016-03-15 Google Inc. Using head gesture and eye position to wake a head mounted device
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN106133796B (en) * 2014-03-25 2019-07-16 苹果公司 For indicating the method and system of virtual objects in the view of true environment
CN104298722B (en) * 2014-09-24 2018-01-19 张鸿勋 Digital video interactive and its method
US10176639B2 (en) * 2014-11-27 2019-01-08 Magic Leap, Inc. Virtual/augmented reality system having dynamic region resolution
CN104766270B (en) * 2015-03-20 2017-10-03 北京理工大学 One kind is based on fish-eye actual situation illumination fusion method
US10203566B2 (en) * 2015-12-21 2019-02-12 Facebook Technologies, Llc Enhanced spatial resolution using a segmented electrode array
US20170256095A1 (en) * 2016-03-02 2017-09-07 Siemens Medical Solutions Usa, Inc. Blocking screen in Augmented Reality
KR102358677B1 (en) * 2016-03-07 2022-02-03 매직 립, 인코포레이티드 Blue light adjustment for biometric authentication security
US10134198B2 (en) 2016-04-19 2018-11-20 Adobe Systems Incorporated Image compensation for an occluding direct-view augmented reality system
US10403045B2 (en) 2017-08-11 2019-09-03 Adobe Inc. Photorealistic augmented reality system

Also Published As

Publication number Publication date
US11514657B2 (en) 2022-11-29
AU2016259427B2 (en) 2021-11-11
US10891804B2 (en) 2021-01-12
CN107306332B (en) 2021-03-26
AU2016259427A1 (en) 2017-11-02
US20180365906A1 (en) 2018-12-20
GB201619550D0 (en) 2017-01-04
US10134198B2 (en) 2018-11-20
US20210090353A1 (en) 2021-03-25
GB2549563A (en) 2017-10-25
GB2549563B (en) 2018-09-26
US20170301145A1 (en) 2017-10-19
CN107306332A (en) 2017-10-31

Similar Documents

Publication Publication Date Title
DE102016013766A1 (en) Image compensation for a masking, direct-view augmented reality system
DE102013114527B4 (en) Close-to-eye display with a microlens array
DE102013114542B4 (en) Display close to the eye with parallax lock
DE102013114518B4 (en) Displays close to the eye with optical deconvolution
DE102020110662A1 (en) SIMULTANEOUS POSITIONING AND MAP CREATION (SLAM) FOR MULTIPLE USERS
DE60023970T2 (en) Image processing apparatus and method
DE102009041431B4 (en) Driving simulation apparatus, wide-angle camera video simulation apparatus and image deforming / composing apparatus
DE102018006050A1 (en) Parallax correction in Virtual Reality
DE112020001415T5 (en) Remote communication environment
DE102021118479A1 (en) EMBEDDING COMPLEX 3D OBJECTS INTO AN AUGMENTED REALITY SCENE USING IMAGE SEGMENTATION
DE112012001022T5 (en) Alignment control in a head-worn augmented reality device
DE19958329A1 (en) Time based effect of shadows on a specific graphical computer generated image
DE102017118714A1 (en) Multi-level camera carrier system for stereoscopic image acquisition
CN111292389B (en) Image processing method and device
DE112015004871T5 (en) Method for automated real-time conversion of 2D RGB images and video into stereoscopic red-cyan 3D anaglyphs
DE102019005885A1 (en) Area map generation and hole filling
DE112019002353T5 (en) TECHNIQUES FOR SWITCHING BETWEEN IMMERSION LEVELS
US11328437B2 (en) Method for emulating defocus of sharp rendered images
DE102020000789A1 (en) Controlling or regulating a reality-enhancing display with transparency control or regulation using several sets of video buffers
DE69830572T2 (en) IMPROVEMENT IN ARTIFICIAL IMAGING
DE102004040372B4 (en) Method and device for displaying a three-dimensional topography
DE102020104415A1 (en) MOVEMENT IN AN ENVIRONMENT
CN115496884A (en) Virtual and real cabin fusion method based on SRWorks video perspective technology
US11308586B2 (en) Method for applying a vignette effect to rendered images
DE102020104055A1 (en) RENDERING OF OBJECTS TO CUSTOMIZE THE CAMERA SOUND

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: ADOBE INC., SAN JOSE, US

Free format text: FORMER OWNER: ADOBE SYSTEMS INCORPORATED, SAN JOSE, CALIF., US

R082 Change of representative

Representative=s name: MUELLER-BORE & PARTNER PATENTANWAELTE PARTG MB, DE

R012 Request for examination validly filed
R016 Response to examination communication