DE102016013766A1 - Image compensation for a masking, direct-view augmented reality system - Google Patents
Image compensation for a masking, direct-view augmented reality system Download PDFInfo
- Publication number
- DE102016013766A1 DE102016013766A1 DE102016013766.5A DE102016013766A DE102016013766A1 DE 102016013766 A1 DE102016013766 A1 DE 102016013766A1 DE 102016013766 A DE102016013766 A DE 102016013766A DE 102016013766 A1 DE102016013766 A1 DE 102016013766A1
- Authority
- DE
- Germany
- Prior art keywords
- attenuation
- graph
- emission
- real world
- display layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 80
- 230000000873 masking effect Effects 0.000 title abstract description 17
- 210000001747 pupil Anatomy 0.000 claims abstract description 27
- 238000013016 damping Methods 0.000 claims description 91
- 238000000034 method Methods 0.000 claims description 50
- 239000013589 supplement Substances 0.000 claims description 21
- 125000001475 halogen functional group Chemical group 0.000 claims description 6
- 230000001502 supplementing effect Effects 0.000 claims description 4
- 230000000153 supplemental effect Effects 0.000 claims description 3
- 238000011161 development Methods 0.000 claims description 2
- 239000010410 layer Substances 0.000 description 188
- 239000002131 composite material Substances 0.000 description 47
- 238000003860 storage Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 17
- 230000000694 effects Effects 0.000 description 16
- 230000000007 visual effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 239000000203 mixture Substances 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 210000004556 brain Anatomy 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000001404 mediated effect Effects 0.000 description 4
- 230000000704 physical effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004040 coloring Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004061 bleaching Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- KRQUFUKTQHISJB-YYADALCUSA-N 2-[(E)-N-[2-(4-chlorophenoxy)propoxy]-C-propylcarbonimidoyl]-3-hydroxy-5-(thian-3-yl)cyclohex-2-en-1-one Chemical compound CCC\C(=N/OCC(C)OC1=CC=C(Cl)C=C1)C1=C(O)CC(CC1=O)C1CCCSC1 KRQUFUKTQHISJB-YYADALCUSA-N 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/20—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/68—Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2300/00—Aspects of the constitution of display devices
- G09G2300/02—Composition of display devices
- G09G2300/023—Display panel composed of stacked panels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/10—Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
- G09G2340/125—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Beschrieben wird eine Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System. Bei einer oder mehreren Ausführungsformen beinhaltet eine Erweiterte-Realität-Einrichtung eine Emissionsanzeigeschicht, um einem Auge eines Nutzers Emissionsgrafiken zu präsentieren, und eine Dämpfungsanzeigeschicht, um Dämpfungsgrafiken zwischen der Emissionsanzeigeschicht und einer Realweltszene zu präsentieren, damit Licht der Realweltszene von den Emissionsgrafiken ferngehalten wird. Ein Hellbereichskompensationsmodul ergänzt eine Dämpfungsgrafik auf Grundlage eines Attributes eines Auges eines Betrachters, so beispielsweise einer Größe einer Pupille, um eine erweiterte Dämpfungsgrafik zu produzieren, die zusätzliches Licht fernhält, um einen unbeabsichtigten Hellbereich zu kompensieren. Ein Dunkelbereichskompensationsmodul kaschiert einen unbeabsichtigten Dunkelbereich mit einer Replikgrafik in der Emissionsanzeigeschicht, die das Aussehen der Realweltszene in dem unbeabsichtigten Dunkelbereich reproduziert. Eine Kamera stellt die Lichtdaten bereit, die zum Erzeugen der Replikgrafik verwendet werden.Described is an image compensation for a masking, direct view augmented reality system. In one or more embodiments, an augmented reality device includes an emissions display layer for presenting emission graphics to a user's eye, and an attenuation display layer for presenting attenuation graphics between the emission display layer and a real world scene to keep light of the real world scene away from the emission graphics. A bright area compensation module complements an attenuation graph based on an attribute of an observer's eye, such as a pupil size, to produce an expanded attenuation graph that keeps additional light off to compensate for an unintended bright area. A dark area compensation module conceals an unintended dark area with a replica graphic in the emission display layer that reproduces the appearance of the real world scene in the unintended dark area. A camera provides the light data used to generate the replica artwork.
Description
Hintergrundbackground
Die erweiterte Realität ist zur Bereitstellung von Information, die für die aktuelle Umgebung einer Person wichtig ist, äußerst vielversprechend. Bei der erweiterten Realität werden visuelle Bilder zu einer Szene einer Umgebung, die von einer Person gerade betrachtet wird, hinzugefügt. Die visuellen Bilder sind synthetische grafische Bilder (nachstehend auch als „synthetische Grafiken” bezeichnet), die von einem Computer erzeugt und einer Realweltszene hinzugefügt werden. Eine synthetische Grafik kann beispielsweise auf eine Realweltszene aufgelegt oder dieser überlagert sein. Eine synthetische Grafik kann zudem in die Realweltszene derart eingefügt werden, dass das eingefügte visuelle Bild der synthetischen Grafik im Sichtfeld in einer gewissen Tiefe teilweise hinter einem Realweltobjekt zu sein scheint. Bei einer raffinierteren Einfügung einer synthetischen Grafik kann die synthetische Grafik als in die Realweltszene integriert erscheinen, was stärkeren Realismus oder auch Anmerkungen ermöglicht, die keine wichtigen visuellen Aspekte blockieren, sondern eindeutig angeben, welches sichtbare Objekt kommentiert wird.The augmented reality is extremely promising for providing information that is important to a person's current environment. In augmented reality, visual images are added to a scene of an environment being viewed by a person. The visual images are synthetic graphic images (hereinafter also referred to as "synthetic graphics") generated by a computer and added to a real world scene. For example, a synthetic graphic may be superimposed on or superimposed on a real world scene. In addition, a synthetic graphic can be inserted into the real world scene in such a way that the inserted visual image of the synthetic graphic in the field of vision seems to be partly behind a real world object at a certain depth. With a more sophisticated insertion of a synthetic graphic, the synthetic graphics may appear to be integrated into the real world scene, allowing for greater realism or even annotations that do not block important visual aspects, but clearly indicate which visible object is annotated.
Eine synthetische Grafik kann hilfreich, lustig, unterhaltsam und dergleichen mehr sein. Ein Erweiterte-Realität-System kann beispielsweise Richtungspfeile und textartige Anweisungen über Straßen oder Korridore hinab anzeigen, damit sich eine Person in eine gewünschte Richtung begeben kann. Bei einem weiteren Beispiel werden empfohlene Toleranzen oder detaillierte Einbauanweisungen für ein Kraftfahrzeugbauteil angezeigt, um einen Automechaniker zu unterstützen. Bei wieder einem anderen Beispiel kann ein Erweiterte-Realität-System die Ergebnisse eines geplanten strukturellen Umbaus oder der Aufstellung neuer Möbel in eine Realweltansicht des Inneren eines Gebäudes projizieren. Eine synthetische Grafik kann darüber hinaus zur Unterhaltung verwendet werden, so beispielsweise beim Anzeigen von lustigen Kommentaren oder aktuellen Kommunikationsvorgängen sozialer Medien über den Köpfen von Freunden und Mitarbeitern. Bei einem weiteren Beispiel kann in das Umfeld eines Kindes ein elektronischer „Kumpel” eingesetzt werden, der als Spielgefährte, Tutor oder Lehrer wirkt. Diese erweiterte Realität birgt das Potenzial, viele Lebensbereiche positiv zu beeinflussen, indem die Hinzufügung von synthetischen Grafiken in Realweltszenen ermöglicht wird.Synthetic graphics can be helpful, fun, entertaining, and more. For example, an augmented reality system may display directional arrows and textual instructions down roads or corridors to allow a person to move in a desired direction. In another example, recommended tolerances or detailed installation instructions for a motor vehicle component are displayed to assist a car mechanic. In yet another example, an augmented reality system may project the results of a planned structural retrofit or new furniture set up into a real world view of the interior of a building. Synthetic graphics can also be used for entertainment, such as displaying funny comments or recent social media communications over the minds of friends and employees. In another example, an electronic "buddy" who acts as a playmate, tutor, or teacher may be employed in a child's environment. This augmented reality has the potential to positively impact many areas of life by allowing the addition of synthetic graphics in real world scenes.
Ein Erweiterte-Realität-System kann auf eine Vielzahl von Arten konfiguriert sein. Konfiguriert sein kann ein Erweiterte-Realität-System beispielsweise als Brille, die vor den Augen eines Nutzers angeordnet werden muss, als Schwimm- bzw. Schutzbrille, die die Augen bedeckt, als anderer Typ von kopfmontierter Anzeige, als Anzeigeschirm, als Videoprojektor oder als eine beliebige Kombination hieraus. Diese Systeme beinhalten zudem eine Funktionalität zum Erzeugen der synthetischen Grafik zur visuellen Präsentation in Zusammenwirkung mit der Realweltszene.An augmented reality system can be configured in a variety of ways. For example, an augmented reality system may be configured as eyeglasses that must be placed in front of a user's eyes as swimming goggles that cover the eyes, as another type of head mounted display, as a display screen, as a video projector, or as one any combination of these. These systems also include functionality for creating the synthetic visual presentation graphic in conjunction with the real world scene.
Erweiterte-Realität-Systeme sind typischerweise als einer von zwei Haupttypen aufgebaut, nämlich als Durchschau-Systeme, die eine Direktansicht unterstützen, oder als kameravermittelte Systeme, die eine indirekte Ansicht unterstützen. Bei Systemen vom erstgenannten Typ blickt eine Person durch einen Anzeigebildschirm, der eine synthetische Grafik präsentiert, und kann zudem die hinter dem Anzeigeschirm angeordnete Realweltszene direkt betrachten. Bei Systemen vom letztgenannten Typ blickt eine Person auf einen Anzeigeschirm, um sowohl die synthetische Grafik wie auch die Realweltszene als gemeinsam auf dem Anzeigeschirm präsentiert zu sehen. Bei beiden Typen von Erweiterte-Realität-Systemen geht die Entwicklung dahin, eine synthetische Grafik mit der Realweltszene zusammenzusetzen und so eine zusammengesetzte Ansicht zu schaffen. Nachteiligerweise verhindert eine Anzahl von technischen Hürden die Entwicklung des vollen Potenzials der erweiterten Realität sowohl beim Lösungsansatz mit Direktansicht wie auch beim Lösungsansatz mit Kameravermittlung.Augmented reality systems are typically built as one of two major types, namely, browsing systems that support direct view, or as camera-mediated systems that support indirect viewing. In systems of the former type, a person looks through a display screen presenting a synthetic graphic and can also directly view the real world scene located behind the display screen. In systems of the latter type, a person looks at a display screen to see both the synthetic graphics and the real world scene presented in common on the display screen. For both types of augmented reality systems, the trend is to compose a synthetic graph with the real world scene to create a composite view. Disadvantageously, a number of technical hurdles prevent the development of the full potential of augmented reality in both the direct view approach and the camera switching approach.
Bei einem Erweiterte-Realität-System mit Kameravermittlung ist die Sicht einer Person üblicherweise auf einen einschichtigen Anzeigeschirm begrenzt, der die Welt derart präsentiert, wie sie unter Verwendung einer Kamera aufgenommen wird, wobei der Anzeigeschirm jedoch physisch opak für die Realwelt aus der Perspektive des Auges der den Anzeigeschirm betrachtenden Person ist. Mit anderen Worten, die Sicht der Person ist indirekt, da die Person kein Licht empfängt, das aus der Realwelt stammt. Anstatt dessen ist eine Kamera mit einem Bildsensor in der Realweltszene vorhanden, und es zeigen zwei oder mehr Miniaturanzeigeschirme die Realweltszene durch Zugreifen auf Daten von einem Bildsensor der Kamera. Ein kameravermitteltes Erweiterte-Realität-System ist analog zum Durchschauen eines „Ansichtsfinders” (view finder) eines modernen Camcorders, bei dem ein LCD-Schirm (Flüssigkristallanzeige LCD) eine Ansicht dessen präsentiert, was der Bildsensor des Camcorders aktuell „sieht”, während Beleuchtungs- oder Fokusangaben der aufgezeichneten Szene überlagert werden.In an augmented reality system with camera switching, a person's view is usually limited to a single-layer display screen that presents the world as captured using a camera, but the display screen is physically opaque to the real world from the perspective of the eye is the person looking at the display screen. In other words, the person's view is indirect because the person does not receive light that comes from the real world. Instead, there is a camera with an image sensor in the real world scene, and two or more miniature display screens show the real world scene by accessing data from an image sensor of the camera. A camera-augmented augmented reality system is analogous to seeing through a "view finder" of a modern camcorder in which an LCD (liquid crystal display) LCD presents a view of what the camcorder's image sensor is currently "seeing" while illuminating - or focus information superimposed on the recorded scene.
Entsprechend ermöglichen kameravermittelte Erweiterte-Realität-Systeme ein genaues Zusammensetzen, da das Kombinieren der Realweltszene und der synthetischen Grafiken elektronisch durchgeführt wird und diese sodann zusammen auf einem einschichtigen Anzeigeschirm angezeigt werden. Nachteiligerweise verschlechtern kameravermittelte Systeme die Sicht einer Person auf die Realweltumgebung infolge von Auflösungs- und Latenzbeschränkungen der Kamera, infolge von Bildverarbeitungskomponenten und Beschränkungen des Anzeigeschirmes selbst. Ein kameravermitteltes Erweiterte-Realität-System wird zudem dunkel und vollständig opak, wenn ein Stromausfall in dem System auftritt.Accordingly, camera-enhanced augmented reality systems allow for accurate compositing because the combining of the real world scene and the synthetic graphics are performed electronically and then displayed together on a single-layer display screen. Disadvantageously worsen camera-mediated systems provide a person's view of the real-world environment due to camera resolution and latency limitations due to image processing components and limitations of the display screen itself. A camera-augmented reality system also becomes dark and completely opaque when a power failure occurs in the system.
Im Gegensatz hierzu sind bei einem auf Direktansicht beruhenden Erweiterte-Realität-System die Augen einer Person Lichtstrahlen ausgesetzt, die von Realweltobjekten stammen. Ein Direktansichtssystem beinhaltet einen Anzeigeschirm, der eine oder mehrere Anzeigeschichten aufweist, die zur Einführung zwischen den Augen einer Person und einer Realweltszene, die direkt betrachtet wird, ausgelegt ist. Ein Beispiel für eine Anzeigeschicht eines Anzeigeschirmes, durch den wenigstens teilweise hindurchgeschaut wird, ist eine Emissionsanzeigeschicht. Eine Emissionsanzeigeschicht kann für das Licht, das von Realweltobjekten stammt, primär transparent sein, wobei die Emissionsanzeigeschicht auch selektiv Bilder präsentieren kann, die derart ausreichend opak sind, dass sie von einem menschlichen Auge wahrnehmbar sind. Daher verwenden auf Direktansicht beruhende Erweiterte-Realität-Systeme fortgeschrittene Optiken, die in eine oder mehrere Anzeigeschichten integriert sind, um eine Illusion zu schaffen, bei der eine transparente Anzeige in einem festen Abstand vor dem Betrachter als einer Realweltszene überlagert erzeugt wird. Da Realweltobjekte direkt betrachtet werden, wird die Realwelt mit minimaler Latenz betrachtet.In contrast, in a direct-view augmented reality system, a person's eyes are exposed to light rays originating from real world objects. A direct view system includes a display screen having one or more display layers adapted for insertion between the eyes of a person and a real world scene being viewed directly. An example of a display layer of a display screen through which at least partially passes is an emission display layer. An emission display layer may be primarily transparent to the light originating from real world objects, and the emission display layer may also selectively present images that are sufficiently opaque that they are perceptible to a human eye. Therefore, augmented reality based systems use advanced optics integrated into one or more display layers to create an illusion in which a transparent display is generated at a fixed distance in front of the viewer superimposed as a real world scene. Since real world objects are viewed directly, the real world is viewed with minimal latency.
Nachteiligerweise weisen auf Direktansicht beruhende Erweiterte-Realität-Systeme zudem eine Anzahl von Nachteilen auf, so beispielsweise ein schmales Sichtfeld. Darüber hinaus unterliegen synthetische Grafiken, die zu einer Realweltszene hinzugefügt werden, Auflösungsbeschränkungen des Anzeigeteilsystems, das mehrere Anzeigeschichten eines Anzeigeschirmes beinhalten kann, zusammen mit zugeordneten Verarbeitungskapazitäten. Sobald darüber hinaus synthetische Grafiken durch ein auf Direktansicht beruhendes Erweiterte-Realität-System überlagert werden, kann die Fähigkeit einer Person, auf synthetische Grafiken geeignet zu fokussieren, infolge anatomischer Eigenschaften des menschlichen Auges beeinträchtigt werden. Das Präsentieren von synthetischen Grafiken derart, dass bewirkt wird, dass Auge und Gehirn synthetische Grafiken in einer gewünschten Tiefe in der Realweltansicht wahrnehmen, ist schwierig. Dies gilt insbesondere dann, wenn Auge und Gehirn einer Person versuchen, Licht, das aus einem Abstand von einigen Zentimetern vor dem Auge stammt, mit Licht, das von Realweltobjekten stammt, die Dutzende, Hunderte oder noch mehr Meter von der Person entfernt sind, zu kombinieren.Disadvantageously, augmented reality systems based on direct view also have a number of disadvantages, such as a narrow field of view. In addition, synthetic graphics added to a real world scene are subject to resolution limitations of the display subsystem, which may include multiple display layers of a display screen, along with associated processing capabilities. In addition, as synthetic graphics are superimposed by a direct-view augmented reality system, a person's ability to appropriately focus on synthetic graphics may be compromised due to anatomical features of the human eye. Presenting synthetic graphics such that the eye and brain are caused to perceive synthetic graphics at a desired depth in the real world view is difficult. This is especially true when a person's eye and brain try to emit light from a distance of a few centimeters in front of the eye with light from real world objects that are tens, hundreds, or even more meters away from the person combine.
Zur Erleichterung einer genauen Zusammensetzung von ortsnahen synthetischen Grafiken und ortsfernen Realweltobjekten kann eine prismatische Linse mit Freiformoptik als Anzeigeschicht eines Anzeigeschirmes in einem auf Direktansicht beruhenden Erweiterte-Realität-System verwendet werden. Eine prismatische Linse mit Freiformoptik präsentiert synthetische Grafiken mit geeigneten Fokuseigenschaften, die eine Person dabei unterstützen, die angezeigten synthetischen Grafiken ohne Unschärfe und in einer gewünschten Tiefe in der Feldansicht wahrzunehmen. Es kann ein integriertes, geringes Gewicht aufweisendes Augennachverfolgen eingesetzt werden, um abzuschätzen, wo die Augen einer Person gerade welches Objekt fokussieren, um die Fokaltiefe zu bestimmen.To facilitate accurate composition of near-surface synthetic graphics and remote real-world objects, a free-form optics prismatic lens can be used as the display layer of a display screen in a direct view augmented reality system. A prismatic lens with freeform optics presents synthetic graphics with appropriate focus characteristics that assist a person in perceiving the displayed synthetic graphics without blurring and at a desired depth in the field view. An integrated low weight eye tracking can be used to estimate where a person's eye is currently focusing which object to determine the depth of focus.
Ein schwer zu lösendes Problem bleibt indes das Einführen von verdeckenden synthetischen Grafiken in auf Direktansicht beruhenden Erweiterte-Realität-Systemen. Eine synthetische Grafik, die zu einer Realweltszene hinzugefügt wird, verdeckt die Sicht, die eine Person auf eine oder mehrere Realweltobjekte hat. Obwohl die verdeckende synthetische Grafik die Sicht auf einige Realweltobjekte blockiert, ist die verdeckende synthetische Grafik gleichwohl erwünscht, da die Grafik Information für die Person bereitstellt, so beispielsweise eine Beschreibung oder eine andere Kommentierung eines Objektes in der Realweltszene. Demgegenüber sind ablenkende Bildartefakte nicht erwünscht. Bei auf Direktansicht beruhenden Erweiterte-Realität-Systemen ist zudem problematisch, dass derartige Systeme ablenkende Bildartefakte in Zusammenwirkung mit der Präsentation von verdeckenden synthetischen Grafiken produzieren. Ein Beispiel für einen derartigen Bildartefakt ist ein Dunkelhof um eine angezeigte synthetische Grafik herum. Derartige Bildartefakte ergeben sich aus mehreren Durchschau-Anzeigeschichten, wobei das Licht von der Realweltszene oder aus der Interaktion von mehreren Schichten mit einfallendem Licht stammt.However, a problem that remains difficult to solve remains the introduction of masking synthetic graphics in direct-view augmented reality systems. A synthetic graphic that is added to a real world scene obscures a person's view of one or more real world objects. However, although the obscuring synthetic graphics blocks the view of some real world objects, the obscuring synthetic graphic is desirable because the graphic provides information to the person, such as a description or other comment of an object in the real world scene. In contrast, distracting image artifacts are undesirable. It is also problematic in direct view augmented reality systems that such systems produce distracting image artifacts in conjunction with the presentation of obscuring synthetic graphics. An example of such an image artifact is a dark field around a displayed synthetic graphic. Such image artifacts result from multiple show through display layers, where the light comes from the real world scene or from the interaction of multiple layers with incident light.
Ein zumindest aus der optischen Perspektive vergleichsweise einfacher Lösungsansatz zum Einführen von verdeckenden synthetischen Grafiken in eine Realweltszene nutzt einen herkömmlichen Stapel von LCD-Schichten. Der Stapel von LCD-Schichten kann sowohl die Realwelt dämpfen wie auch synthetische Grafiken im Vordergrund zusammen mit geeigneten Fokushinweisen bereitstellen. Nachteiligerweise verfügen derartige Vorrichtungen über eine niedrige räumliche Auflösung und erfordern eine rechentechnisch aufwändige Optimierungsverarbeitung, um die synthetischen Grafiken anzuzeigen. Darüber hinaus wird, damit die gestapelten LCD-Schichten eine Winkelauflösung erreichen, die Auflösung der LCD-Schichten vergrößert. LCD-Schichten einer ausreichend hohen Auflösung können jedoch die übertragene Ansicht der Realwelt infolge von Beugungseffekten unscharf machen. Der Einsatz von drei derartigen LCD-Schichten, die aufeinandergestapelt sind, verschärft dieses Problem noch. Wenn zudem ein herkömmlicher Stapel von LCD-Schichten zum Dämpfen der Sicht einer Person auf die Umgebung verwendet wird, um die Ansicht einer synthetischen Grafik zu unterstützen, ist ein Dunkelhof um die synthetische Grafik herum sichtbar. Alternative optische Systeme sind vorgeschlagen worden, wobei diese alternativen optischen Systeme jedoch aufwändig und komplex sind. Andere Alternativen beeinträchtigen andere erwünschte Aspekte eines Erweiterte-Realität-Systems, so beispielsweise einen guten Kontrast.A comparatively simple solution, at least from the optical perspective, for introducing masking synthetic graphics into a real-world scene uses a conventional stack of LCD layers. The stack of LCD layers can both attenuate the real world and provide foreground synthetic graphics along with appropriate focus hints. Disadvantageously, such devices have low spatial resolution and require computationally expensive optimization processing to display the synthetic graphics. In addition, in order for the stacked LCD layers to achieve angular resolution, the resolution of the LCD layers is increased. However, LCD layers of a sufficiently high resolution may result in the transmitted view of the real world to blur diffraction effects. The use of three such LCD layers stacked together further aggravates this problem. In addition, when a conventional stack of LCD layers is used to dampen a person's view of the environment to aid in viewing a synthetic graphic, a dark courtyard is visible around the synthetic graphic. Alternative optical systems have been proposed, but these alternative optical systems are expensive and complex. Other alternatives affect other desirable aspects of an augmented reality system, such as good contrast.
ZusammenfassungSummary
Beschrieben wird eine Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System. Eine Erweiterte-Realität-Einrichtung beinhaltet einen Anzeigeschirm, der zwei Anzeigeschichten aufweist, die selektiv transparent sind. Sind die beiden Anzeigeschichten beide transparent, so kann ein Nutzer durch die beiden Schichten hindurchblicken und eine Realweltszene direkt betrachten. Wenn eine oder beide der Schichten eine synthetische Grafik anzeigen, verdeckt die angezeigte Grafik jedoch wenigstens einen Teil der Sicht des Nutzers auf die Realweltszene, wobei diese Verdeckungen unerwünschte Bildartefakte produzieren können. Zwei Typen von ablenkenden und unerwünschten Bildartefakten sind unerwünschte Hellbereiche und unerwünschte Dunkelbereiche.Described is an image compensation for a masking, direct view augmented reality system. An augmented reality device includes a display screen having two display layers that are selectively transparent. If the two display layers are both transparent, a user can look through the two layers and directly look at a real world scene. However, if one or both of the layers display a synthetic graphic, the displayed graphic obscures at least a portion of the user's view of the real world scene, which can produce unwanted image artifacts. Two types of distracting and unwanted image artifacts are unwanted bright areas and unwanted dark areas.
Bei einem beschriebenen Aspekt kompensiert eine auf Direktansicht beruhende Erweiterte-Realität-Einrichtung einen unbeabsichtigten Hellbereich. Bei einem weiteren beschriebenen Aspekt kompensiert eine auf Direktansicht beruhende Erweiterte-Realität-Einrichtung einen unbeabsichtigten Dunkelbereich. Bei beiden beschriebenen Aspekten beinhaltet eine Erweiterte-Realität-Einrichtung einen Anzeigeschirm, der eine Emissionsanzeigeschicht und eine Dämpfungsanzeigeschicht aufweist, um synthetische Grafiken zu präsentieren. Im Betrieb präsentiert die Emissionsanzeigeschicht eine Emissionsgrafik, die für ein Auge des Nutzers angezeigt wird und einen gewissen Informationsinhalt beinhaltet. Die Dämpfungsanzeigeschicht ist zwischen der Emissionsanzeigeschicht und der Realweltszene positioniert und präsentiert eine Dämpfungsgrafik, die Licht, das von der Realweltszene stammt, dämpft (beispielsweise im Wesentlichen fernhält). Präpariert oder präsentiert werden können die Emissionsgrafik oder die Dämpfungsgrafik unter Verwendung von Intensitätsabbildungen bzw. Karten oder Lagen (mattes), die jeweils Zonen der Emissionsanzeigeschicht oder der Dämpfungsanzeigeschicht angeben, die aktiviert werden sollen, anstelle für Licht transparent zu sein.In one aspect described, an augmented-reality facility based on direct view compensates for an unintended bright area. In a further described aspect, a direct view augmented reality facility compensates for an unintended dark area. In both aspects described, an augmented reality device includes a display screen having an emission display layer and a damping display layer to present synthetic graphics. In operation, the emissions display layer presents an emissions graphic that is displayed to an eye of the user and includes some informational content. The attenuation display layer is positioned between the emission display layer and the real world scene and presents an attenuation graph that attenuates (eg, substantially keeps away) light originating from the real world scene. The emission graph or the attenuation graph may be prepared or presented using intensity maps or matte, respectively indicating areas of the emission display layer or the attenuation display layer to be activated instead of being transparent to light.
Ein unerwünschter Hellbereich ist sichtbar, wenn Licht, das von der Realweltszene stammt, wenigstens einen Teil einer Emissionsgrafik, die von der Emissionsanzeigeschicht präsentiert wird, ausbleicht (beispielsweise schwach erscheinen lässt). Ein innerer Hellhof (inner light halo) an der Grenze der Emissionsgrafik kann sich beispielsweise in Abhängigkeit von der Größe einer entsprechenden Dämpfungsgrafik, die für das Fernhalten von einfallendem Licht verantwortlich ist, entwickeln. Zum Kompensieren des unerwünschten Hellbereiches ergänzt ein Hellbereichskompensationsmodul die Dämpfungsgrafik, um die Größe der Dämpfungsgrafik zu erweitern. Im Betrieb ergänzt das Hellbereichskompensationsmodul die Dämpfungsgrafik auf Grundlage eines Attributes des Auges eines Nutzers, so beispielsweise des Radius der Pupille des Auges. Ein Faltungsfilter kann unter Verwendung des Augenattributes eingestellt und angewendet werden, um die erweiterte Dämpfungsgrafik zu produzieren. Die Erweiterte-Realität-Einrichtung zeigt die erweiterte Dämpfungsgrafik aus der Perspektive des Nutzers hinter der Emissionsgrafik an. Die Anzeige der erweiterten Dämpfungsgrafik kompensiert den unbeabsichtigten Hellbereich, der ansonsten für den Nutzer sichtbar wäre.An undesirable bright region is visible when light originating from the real world scene fades (eg, faint) at least part of an emission graphic presented by the emission display layer. For example, an inner light halo at the boundary of the emission graph may evolve depending on the size of a corresponding attenuation graph that is responsible for keeping away from incident light. To compensate for the unwanted bright area, a bright area compensation module supplements the mute graph to expand the size of the mute graph. In operation, the bright area compensation module supplements the attenuation graph based on an attribute of a user's eye, such as the radius of the pupil of the eye. A convolution filter can be set and applied using the eye attribute to produce the expanded attenuation graph. The Enhanced Reality feature displays the expanded attenuation graph from the user's perspective behind the emissions graph. The expanded attenuation graph display compensates for the unintended bright area that would otherwise be visible to the user.
Ein unerwünschter Dunkelbereich ist sichtbar, wenn eine Dämpfungsgrafik zu viel Licht fernhält, was beispielsweise in einer Zone der Fall ist, die aus der Perspektive des Auges des Nutzers nicht von einer entsprechenden Emissionsgrafik bedeckt ist. Ein äußerer Dunkelhof (outer dark halo) an der Grenze der Emissionsgrafik kann sich beispielsweise entwickeln, wenn sich eine entsprechende Dämpfungsgrafik über die Emissionsgrafik hinaus erstreckt. Um den unerwünschten Dunkelbereich zu kompensieren, hellt ein Dunkelbereichskompensationsmodul unter Verwendung der Emissionsanzeigeschicht den Dunkelbereich auf. Im Betrieb verwendet das Dunkelbereichskompensationsmodul eine Kamera, um Daten zu beziehen, die Licht darstellen, das aus der Realweltszene stammt. Diese Lichtdaten werden verwendet, um eine Replikgrafik zu erstellen, die das Aussehen der Realweltszene für den unbeabsichtigten Dunkelbereich reproduziert. Des Weiteren kann die Erstellung der Replikgrafik durch Defokussieren einer Dämpfungslage für die erweiterte Dämpfungsgrafik eingestellt werden, um einer Linsenunschärfe gerecht zu werden, die sich daraus ergibt, dass die Dämpfungsgrafik außerhalb des Fokus für das Auge des Nutzers ist. Die Erweiterte-Realität-Einrichtung verwendet die Emissionsanzeigeschicht dazu, die Replikgrafik in einem Bereich zu präsentieren, der einen Rand der Emissionsgrafik dort begrenzt, wo sich die erweiternde Dämpfungsgrafik über einen Rand der Emissionsgrafik hinaus erstreckt. Die Anzeige der Replikgrafik kompensiert den unbeabsichtigten Dunkelbereich durch Reproduzieren des Aussehens der Realweltszene in einer Zone des beabsichtigten Dunkelbereiches, die andernfalls für den Nutzer sichtbar wäre.An undesirable dark area is visible when an attenuation graph keeps too much light off, which is the case, for example, in a zone that is not covered by a corresponding emission graph from the perspective of the user's eye. For example, an outer dark halo at the boundary of the emission graph may develop when a corresponding attenuation graph extends beyond the emission graph. To compensate for the unwanted dark area, a dark area compensation module lightens the dark area using the emission display layer. In operation, the dark area compensation module uses a camera to obtain data representing light coming from the real world scene. This light data is used to create a replica graphic that reproduces the appearance of the real world scene for the unintended dark area. Furthermore, the creation of the replica graphic can be adjusted by defocusing an attenuation map for the enhanced attenuation graph to accommodate lens blurring that results from the attenuation graph being out of focus for the user's eye. The augmented reality facility uses the emission display layer to present the replica graph in a region that bounds an edge of the emission graph where the expanding attenuation graph extends beyond an edge of the emission graph. The display of the replica graphic compensates for the unintended dark area by reproducing the appearance of the real world scene in a zone of the intended dark area that would otherwise be visible to the user.
Die vorliegende Zusammenfassung bietet in vereinfachter Form eine einleitende Auswahl von Konzepten, die nachstehend in der Detailbeschreibung weiter beschrieben werden. Die vorliegende Zusammenfassung soll per se wesentliche Merkmale des beanspruchten Erfindungsgegenstandes weder identifizieren, noch soll sie als Hilfe beim Bestimmen des Umfanges des beanspruchten Erfindungsgegenstandes verwendet werden.The present summary, in a simplified form, provides an introductory selection of concepts, which are further described below in the Detailed Description. The present summary is not intended to identify per se essential features of the claimed subject matter, nor is it intended to be used as an aid in determining the scope of the claimed subject matter.
Kurzbeschreibung der ZeichnungBrief description of the drawing
Die Detailbeschreibung wird anhand der begleitenden Figuren präsentiert.The detailed description will be presented on the basis of the accompanying figures.
Detailbeschreibung detailed description
ÜbersichtOverview
Im Vergleich zu Erweiterte-Realität-Systemen, die auf einer kameravermittelten indirekten Ansicht beruhen, weisen auf Direktansicht beruhende Erweiterte-Realität-Systeme eine niedrigere Latenz auf und bieten eine authentischere Interaktion mit der Realwelt wie auch ein natürlicheres Erleben der Sicht auf die Realwelt. Nachteiligerweise präsentiert die Implementierung eines auf Direktansicht beruhenden Erweiterte-Realität-Systems eine andere Menge von Problemen. Das Anzeigen von synthetischen Grafiken derart, dass Auge und Gehirn ermöglicht wird, den synthetischen Inhalt in einer beabsichtigten Tiefe in der Realweltansicht zu deuten, ist beispielsweise schwierig. Dies rührt insbesondere daher, dass Auge und Gehirn versuchen, auf Lichtstrahlen, die aus vielen Metern Entfernung vom Auge stammen, und Lichtstrahlen, die aus einer Entfernung von einigen wenigen Millimetern stammen, zu fokussieren und diese miteinander zu kombinieren. Diese Abstände sind voneinander um Größenordnungen verschieden, wobei die verschiedenen Abstände die Erstellung einer vergleichsweise fließenden, nicht unscharfen zusammengesetzten Ansicht problematisch machen. Des Weiteren können Lichtstrahlen von Realweltobjekten mit den Lichtstrahlen der synthetischen Grafiken derart interagieren, dass sie die Fähigkeit eines Nutzers beeinträchtigen, dass eine oder das andere zu sehen, da Bildartefakte geschaffen werden. Bereiche, die beispielsweise dunkler oder heller als gewünscht oder beabsichtigt sind, können für einen Nutzer in einer Bildansicht, die die synthetischen Grafiken mit den Realweltobjekten zusammensetzt, visuell sichtbar sein.Compared to augmented reality systems based on a camera-mediated indirect view, augmented-reality augmented reality systems have lower latency and provide a more authentic interaction with the real world as well as a more natural experience of the real world view. Disadvantageously, implementing a direct view augmented reality system presents a different set of problems. For example, displaying synthetic graphics such that the eye and brain are allowed to interpret the synthetic content at an intended depth in the real-world view is difficult. This is particularly because the eye and brain are trying to focus on beams of light that come from many meters away from the eye and beams of light that come from a distance of a few millimeters, and to combine them. These distances are different from each other by orders of magnitude, the different distances making the creation of a comparatively fluid, non-blurred composite view problematic. Furthermore, light rays from real world objects may interact with the light rays of the synthetic graphics such that they interfere with a user's ability to see one or the other as image artifacts are created. For example, areas that are darker or lighter than desired or intended may be visually visible to a user in an image view composing the synthetic graphics with the real world objects.
Es wird hier eine Technik für ein auf Direktansicht beruhendes Erweiterte-Realität-System offenbart, das eine Bildzusammensetzung für einen betrachtenden Nutzer ermöglicht. Das auf direkter Ansicht beruhende Erweiterte-Realität-System beinhaltet eine Emissionsanzeigeschicht und eine Dämpfungsanzeigeschicht, die zwischen den Augen eines Nutzers und einer Realweltszene platziert sind. Die Technologie kompensiert vorteilhafterweise unerwünschte Bildartefakte, die sich aus einer Interaktion zwischen den Augen des Nutzers, den Realweltobjekten und den Anzeigeschichten eines auf Direktansicht beruhenden Erweiterte-Realität-Systems ergeben. Bei bestehenden Systemen wird unerwünschten Bildartefakten durch Verwendung von drei oder mehr gestapelten LCD-Schichten begegnet, was jedoch rechentechnisch aufwendig ist und sehr wahrscheinlich die übertragene Ansicht der Realweltszene infolge von Beugungseffekten unscharf macht. Die Technologie kann jedoch die unerwünschten Bildartefakte unter Verwendung von weniger als drei LCD-Schichten dadurch kompensieren, dass dasjenige angepasst wird, was an jeder Schicht angezeigt wird.There is disclosed herein a technology for a direct view augmented reality system that allows image composition for a viewing user. The direct view augmented reality system includes an emission display layer and a damping display layer placed between the eyes of a user and a real world scene. The technology advantageously compensates for unwanted image artifacts resulting from an interaction between the user's eyes, the real world objects, and the display layers of a direct view augmented reality system. Existing systems address unwanted image artifacts by using three or more stacked LCD layers, but this is computationally expensive and very likely blurs the transmitted view of the real world scene due to diffraction effects. However, the technology can compensate for the unwanted image artifacts using less than three LCD layers by adjusting what is displayed at each layer.
Anstelle der Verwendung von drei oder mehr gestapelten LCD-Schichten kann ein Anzeigeschirm für ein Erweiterte-Realität-System eine einzige Anzeigeschicht, so beispielsweise eine Emissionsanzeigeschicht, verwenden. Wird eine Anzeigeschicht mit lediglich einer Emissionsanzeigeschicht verwendet, so kann jedoch ein heller Hintergrund einer Realweltszene das Aussehen einer synthetischen Grafik, die von der Emissionsanzeigeschicht präsentiert wird, ausbleichen. Um diesem Ausbleicheffekt zu begegnen, ist eine Dämpfungsanzeigeschicht als zweite Schicht zwischen der Emissionsanzeigeschicht und der Realweltszene eingebaut. Die Emissionsanzeigeschicht präsentiert eine Emissionsgrafik, so beispielsweise einen Alarmhinweis oder ein Anweisungssymbol, um Information zu der Realweltszene hinzuzufügen. Die Dämpfungsanzeigeschicht präsentiert eine außerhalb des Fokus befindliche verdeckende Grafik (nachstehend als „Dämpfungsgrafik” bezeichnet) hinter der Emissionsgrafik, um zu verhindern, dass Licht aus der Realweltszene die Emissionsgrafik ausbleicht. Nachteiligerweise kann die sich ergebende Kombination aus der Emissionsgrafik und der dieselbe Größe aufweisenden Dämpfungsgrafik Bildartefakte bei Ansicht durch ein Auge eines Nutzers entwickeln. Die Kombination macht beispielsweise einen unbeabsichtigten Hellbereich und einen unbeabsichtigten Dunkelbereich für den Nutzer sichtbar. Ein innerer Hellhof und ein äußerer Dunkelhof erscheinen beispielsweise um eine Grenzzone der Emissionsgrafik herum.Instead of using three or more stacked LCD layers, a display panel for an augmented reality system may use a single display layer, such as an emission display layer. However, when a display layer having only one emission display layer is used, a light background of a real world scene may fade the appearance of a synthetic graphic presented by the emission display layer. To counteract this bleaching effect, a damping display layer is incorporated as a second layer between the emission display layer and the real world scene. The emission display layer presents an emission graphic, such as an alert or an instruction icon, to add information to the real world scene. The attenuation display layer presents an out-of-focus occluding graph (hereinafter referred to as "attenuation graph") behind the emission graph to prevent light from the real world scene from bleaching the emission graph. Unfortunately, the resulting combination of emission graphics and the same sized attenuation graph may develop image artifacts when viewed through an user's eye. For example, the combination makes an inadvertent light area and unintended dark area visible to the user. For example, an inner Hellhof and an outer Dark Court appear around a boundary zone of the emission graph.
Um die visuellen Effekte der Bildartefakte anzugehen, die sich aus der Einführung einer verdeckenden synthetischen Grafik in eine auf Direktansicht beruhende Erweiterte-Realität-Anzeige ergeben, werden Einrichtungen und Techniken zum Kompensieren derartiger Bildartefakte beschrieben. Die Verwendung der hier offenbarten Erweiterte-Realität-Einrichtung, die einen Anzeigeschirm mit zwei Anzeigeschichten beinhaltet, sowie einer oder mehrerer zugehöriger Techniken verbessert vorteilhafterweise das Aussehen der unerwünschten Hellbereiche oder der unerwünschten Dunkelbereiche. Bei exemplarischen Implementierungen unterstützt eine außerhalb des Fokus befindliche verdeckende Dämpfungsgrafik die Ansicht einer Emissionsgrafik, die zu einer Realweltszene hinzugefügt ist. Die außerhalb des Fokus befindliche Dämpfungsgrafik kann mit einer vergleichsweise niedrigen Auflösung implementiert werden, wobei diese niedrigere Auflösung vorteilhafterweise die Beugungseffekte verringert, die ansonsten zu einer Unschärfe der Direktansicht der Realwelt, die durch die transparenten Anzeigeschichten betrachtet wird, führen können.To address the visual effects of image artifacts resulting from the introduction of a masking synthetic graphic into a direct view augmented reality display, devices and techniques for compensating such image artifacts are described. The use of the augmented reality device disclosed herein including a display screen with two display layers, as well as one or more associated techniques, advantageously enhances the appearance of the unwanted light areas or unwanted dark areas. In exemplary implementations, an out-of-focus hiding attenuation graph supports the view of an emissions graph added to a real world scene. The out-of-focus attenuation map may be implemented at a comparatively low resolution, which lower resolution advantageously reduces the diffraction effects that may otherwise result in blurring the direct view of the real world viewed through the transparent display layers.
Bei einigen Ausführungsformen beinhaltet die offenbarte Technologie ein Bildkompensationsmodul, das Techniken zur Verbesserung von Bereichen, die unerwünschte Leuchtpegel aufweisen, einsetzt. Das Bildkompensationsmodul beinhaltet ein Hellbereichskompensationsmodul oder ein Dunkelbereichskompensationsmodul. Das Hellbereichskompensationsmodul und das Dunkelbereichskompensationsmodul können separat oder auch synergetisch miteinander verwendet werden. Im Allgemeinen modifiziert das Hellbereichskompensationsmodul eine Transparenzlage, die für eine Dämpfungsanzeigeschicht verwendet wird, um zu verhindern, dass unerwünschtes Licht durch die Anzeige hindurch gelangt. Diese Modifikation wird mittels einer Berechnung erreicht, die den Pupillendurchmesser des Nutzers berücksichtigt. Das Dunkelbereichskompensationsmodul verhindert, dass der Hintergrund zu dunkel erscheint, indem zum Vordergrund ausreichend Licht hinzugefügt wird, um den gedämpften Hintergrund zu kompensieren. Dies impliziert die Verwendung einer nach vorne orientierten Kamera, um das Licht, das aus dem Hintergrund eintrifft, abzuschätzen. Das sich ergebende kamerabasierte Vordergrundbild, das hier als Replikgrafik bezeichnet wird, wird zusammen mit der Emissionsgrafik in einer Emissionsanzeigeschicht präsentiert, um den unerwünschten Dunkelbereich zu kompensieren. Der Teil des Hintergrundes wird jedoch direkt vom Nutzer betrachtet. In some embodiments, the disclosed technology includes an image compensation module employing techniques for enhancing areas having undesirable luminance levels. The image compensation module includes a bright area compensation module or a dark area compensation module. The bright area compensation module and the dark area compensation module may be used separately or synergistically with each other. In general, the bright area compensation module modifies a transparency layer used for a damping display layer to prevent unwanted light from passing through the display. This modification is achieved by means of a calculation which takes into account the pupil diameter of the user. The dark area compensation module prevents the background from appearing too dark by adding sufficient light to the foreground to compensate for the muted background. This implies the use of a front-facing camera to estimate the light coming in from the background. The resulting camera-based foreground image, referred to herein as a replica graphic, is presented along with the emission graphic in an emission display layer to compensate for the unwanted dark area. However, the part of the background is viewed directly by the user.
Um einen unerwünschten Hellbereich zu kompensieren, ergänzt (beispielsweise erweitert) das Hellbereichskompensationsmodul die Dämpfungsgrafik insbesondere derart, dass diese sich über einen Rand der Emissionsgrafik hinaus erstreckt. Um zu bestimmen, wie weit die Grenze der Dämpfungsgrafik über den Rand der Emissionsgrafik hinaus erstreckt werden muss, wird ein Wert verwendet, der ein Attribut des Auges des Nutzers angibt. So wird beispielsweise der Radius der Pupille des Auges verwendet, um einen Filter einzustellen, der die Größe der erweiterten Dämpfungsgrafik einrichtet. Infolge der natürlichen Fokussierungseigenschaften des Auges zusammen mit der relativen Positionierung der Emissions- und Dämpfungsanzeigeschichten scheint die erweiterte Dämpfungsgrafik außerhalb des Fokus zu sein. Die erweiterte Dämpfungsgrafik dämpft dennoch mehr Licht aus dem Umfeld der Grenze der Emissionsgrafik im Vergleich zu einer nicht erweiterten Dämpfungsgrafik. Infolge dessen wird ein unbeabsichtigter Hellbereich (beispielsweise ein innerer Hellhof) dadurch kompensiert, dass die Sichtbarkeit des unerwünschten Hellbereiches beträchtlich verringert wird. Das Aussehen eines unerwünschten Dunkelbereiches (beispielsweise eines äußeren Dunkelhofes) kann jedoch stärker hervortreten.In order to compensate for an undesired bright area, the bright area compensation module supplements (for example, extends) the attenuation graph, in particular such that it extends beyond an edge of the emission graph. In order to determine how far the boundary of the attenuation graph needs to be extended beyond the edge of the emission graph, a value indicating an attribute of the user's eye is used. For example, the radius of the pupil of the eye is used to set a filter that adjusts the size of the expanded attenuation graph. Due to the natural focusing properties of the eye along with the relative positioning of the emission and attenuation display layers, the expanded attenuation graph appears to be out of focus. The extended attenuation graph still attenuates more light from the environment of the border of the emission graph compared to a non-expanded attenuation graph. As a result, an unintended bright area (for example, an inner bright court) is compensated for by considerably reducing the visibility of the unwanted bright area. However, the appearance of an undesirable dark area (for example, an outer dark courtyard) may become more prominent.
Um einen unerwünschten Dunkelbereich unabhängig von dessen Ursache zu kompensieren, kann das Dunkelbereichskompensationsmodul den Dunkelbereich mit Pixeln bedecken, die wenigstens den Helligkeitspegel der Realweltszene in der Umgebung des Dunkelbereiches replizieren. Entspricht der Dunkelbereich einem äußeren Dunkelhof, so existiert eine Zone zwischen dem Rand der Emissionsgrafik und einer Grenze der Dämpfungsgrafik, die eine erweiterte Dämpfungsgrafik sein kann. Eine nach außen orientierte Kamera detektiert Licht, das von der Realweltszene stammt, wenigstens in der dieser Zone entsprechenden Umgebung. Das Dunkelbereichskompensationsmodul wandelt das detektierte Licht in Pixel um, die das Aussehen der Realweltszene in dem unbeabsichtigten Dunkelbereich replizieren, um eine Replikgrafik zu erzeugen. Das Dunkelbereichskompensationsmodul fügt die Replikpixel der Replikgrafik zu denjenigen der Emissionsgrafik hinzu und präsentiert beide in der Emissionsanzeigeschicht, um den unerwünschten Dunkelbereich zu kaschieren. Daher wird ein unbeabsichtigter Dunkelbereich (beispielsweise ein äußerer Dunkelhof) dadurch kompensiert, dass der unerwünschte Dunkelbereich auf Grundlage des Aussehens der Realweltszene im Hintergrund beträchtlich aufgehellt wird.In order to compensate for an undesired dark area, regardless of its cause, the dark area compensation module may cover the dark area with pixels that at least replicate the brightness level of the real world scene in the vicinity of the dark area. If the dark area corresponds to an outer dark courtyard, then there is a zone between the edge of the emission graph and a boundary of the attenuation graph, which may be an extended attenuation graph. An outwardly oriented camera detects light originating from the real world scene, at least in the environment corresponding to that zone. The dark area compensation module converts the detected light into pixels that replicate the appearance of the real world scene in the unintended dark area to produce a replica graphic. The dark area compensation module adds the replica pixels of the replica graphic to those of the emission graphics and presents both in the emission display layer to mask the unwanted dark area. Therefore, an unintended dark area (for example, an outer dark courtyard) is compensated for by significantly lightening the unwanted dark area based on the appearance of the real world scene in the background.
In der nachfolgenden Diskussion wird, nachdem einige exemplarische terminologische Begriffe beschrieben worden sind, eine exemplarische Umgebung beschrieben, in der die hier beschriebenen Techniken zum Einsatz kommen können. Exemplarische ausführungsformgemäße Systeme, Einrichtungen und Techniken werden sodann beschrieben, gefolgt von einem Abschnitt, in dem Prozeduren und Prozesse einer exemplarischen Ausführungsform erläutert werden. Die Prozeduren und Prozesse können in der exemplarischen Umgebung und in Systemen wie auch in anderen Umgebungen durchgeführt werden. Das Leistungsvermögen der exemplarischen Prozeduren ist jedoch nicht auf die exemplarische Umgebung beschränkt, und es sind auch die exemplarische Umgebung und die Systeme nicht auf das Leistungsvermögen der exemplarischen Prozeduren beschränkt.In the following discussion, after some exemplary terminology has been described, an exemplary environment in which the techniques described herein may be used will be described. Exemplary embodiments, systems, and techniques are then described, followed by a section in which procedures and processes of an exemplary embodiment are explained. The procedures and processes can be performed in the example environment and in systems as well as in other environments. However, the performance of the exemplary procedures is not limited to the exemplary environment, nor are the example environment and systems limited to the performance of the example procedures.
Die Zeichnung, insbesondere
Beispiele für die TerminologieExamples of the terminology
Exemplarische Beschreibungen oder Erläuterungen gewisser hier verwendeter Begriffe folgen nachstehend. Jeder Begriff ist bei einer oder mehreren, jedoch nicht notwendigerweise bei allen hier präsentierten Ausführungsformen anwendbar. Einige Begriffe werden zudem unter Verwendung eines oder mehrerer Beispiele veranschaulicht.Exemplary descriptions or explanations of certain terms used herein follow below. Each term is applicable to one or more, but not necessarily all embodiments presented herein. Some terms are also illustrated using one or more examples.
Eine „Realweltszene” bezeichnet eine Ansicht einer aktuellen Umgebung, auf die ein Nutzer in Echtzeit oder nahezu in Echtzeit gerade schaut. Realweltszenen stehen im Gegensatz zu computererzeugten Bildern. Beispiele für eine Realweltszene können eine Feier mit Freunden, ein Fußballspiel, eine Aussicht von einem Berg, eine Kindertanzvorführung und dergleichen mehr beinhalten. Eine Realweltszene kann direkt oder indirekt betrachtet werden.A "real world scene" refers to a view of a current environment that a user is looking at in real time or near real time. Real world scenes are in contrast to computer generated images. Examples of a real world scene may include a celebration with friends, a football game, a mountain view, a children's dance performance, and the like. A real world scene can be viewed directly or indirectly.
Eine „Direktansicht” einer Realweltszene bezeichnet eine Situation oder Umgebung, in der die Augen eines Nutzers Licht, das von einem Realweltobjekt (beispielsweise durch Reflexion oder Ausstrahlung) stammt, empfangen. Die Lichtstrahlen können indes durch eine oder mehrere transparente, halbtransparente oder teilweise opake Schichten, so beispielsweise eine LCD-Schicht, hindurchlaufen. Eine Direktansicht steht im Gegensatz zu einer Indirekten oder kameravermittelten Ansicht, bei der eine Person auf eine Realweltszene unter Verwendung eines Anzeigeschirmes, dem Bilder von einem Kamerasensor zugeleitet werden, schaut.A "direct view" of a real world scene refers to a situation or environment in which the eyes of a user receive light originating from a real world object (such as reflection or broadcast). However, the light rays may pass through one or more transparent, semi-transparent, or partially opaque layers, such as an LCD layer. A direct view is in contrast to an indirect or camera-mediated view in which a person looks at a real world scene using a display screen to which images are fed from a camera sensor.
Ein „Bildartefakt” bezeichnet in einem Stand- oder Bewegtbild einen unbeabsichtigten oder unerwünschten Aspekt, der kein natürlicher Teil des Bildes ist. Der Bildartefakt ist ein wahrnehmbarer künstlicher Aspekt eines Bildes, der infolge einer Linse, eines Aufzeichnungsmechanismus, einer Reproduktionstechnik, infolge hinzugefügter synthetischer Grafiken, der menschlichen Wahrnehmung, einer Kombination hieraus und dergleichen mehr eingeführt werden kann. Beispiele für Bildartefakte können einen unbeabsichtigten Hellbereich, einen unbeabsichtigten Dunkelbereich, einen Lens-Flare-Effekt, eine Unschärfe, eine Verpixelung oder eine Kombination hieraus beinhalten.An "image artifact" in an still or moving image refers to an unintentional or undesirable aspect that is not a natural part of the image. The image artifact is a perceptible artificial aspect of an image that may be more introduced due to a lens, a recording mechanism, a reproduction technique, as a result of added synthetic graphics, human perception, a combination thereof, and the like. Examples of image artifacts may include an inadvertent light area, an unintended dark area, a lens flare effect, a blur, a pixelation, or a combination thereof.
Ein „unbeabsichtigter Hellbereich” bezeichnet eine Zone eines Bildes, die heller als beabsichtigt oder erwünscht ist. Ein visuell sichtbarer Hellbereich, der eigentlich nicht vorhanden ist, keinen Zweck hat oder nicht genau eine hellere Zone einer Realweltszene angibt, ist gegebenenfalls unbeabsichtigt. Ist eine Zone eines Bildes beispielsweise heller als eine andere Zone des Bildes, unterscheiden sich jedoch entsprechende Realweltzonen hinsichtlich der Helligkeit nicht, so ist die hellere Zone des Bildes gegebenenfalls ein unbeabsichtigter Hellbereich. Eine Zone, die derart hell ist, dass die Zone ausgebleicht erscheint oder schwer zu sehen ist, kann eindeutig ein unbeabsichtigter Hellbereich sein.An "unintended bright area" refers to a zone of an image that is brighter than intended or desired. A visually visible bright area, which is actually not present, has no purpose or does not indicate exactly a brighter zone of a real world scene, may be unintentional. For example, if one zone of an image is brighter than another zone of the image, but corresponding real-world zones do not differ in brightness, the brighter zone of the image may be an unintended bright region. A zone that is so bright that the zone appears bleached or difficult to see may clearly be an inadvertent bright area.
Ein „unbeabsichtigter Dunkelbereich” bezeichnet eine Zone eines Bildes, die dunkler als beabsichtigt oder erwünscht ist. Ein visuell sichtbarer Dunkelbereich, der eigentlich nicht vorhanden ist, keinen Zweck hat oder nicht genau eine dunklere Zone einer Realweltszene angibt, ist gegebenenfalls unbeabsichtigt. Ist beispielsweise eine Zone eines Bildes dunkler als eine andere Zone des Bildes, unterscheiden sich jedoch die entsprechenden Realweltzonen hinsichtlich der Dunkelheit nicht voneinander, so ist die dunklere Zone des Bildes gegebenenfalls ein unerwünschter Dunkelbereich. Eine Zone, die derart dunkel ist, dass die Zone schwarz, dunkelgrau, schattiert oder schwer zu sehen sind, ist gegebenenfalls ebenfalls ein unbeabsichtigter Dunkelbereich.An "unintended dark area" refers to a zone of an image that is darker than intended or desired. A visually visible dark area that is actually non-existent, has no purpose or does not accurately indicate a darker zone of a real world scene may be unintentional. For example, if one zone of an image is darker than another zone of the image, but the corresponding real world zones are not different in darkness, the darker zone of the image may be an undesirable dark area. A zone that is so dark that the zone may be black, dark gray, shaded, or hard to see may also be an unintended dark area.
Eine „Emissionsanzeigeschicht” bezeichnet eine Schicht einer Erweiterte-Realität-Einrichtung, die eine Emissionsgrafik dem Auge eines Nutzers präsentieren kann. Von zwei oder mehr Schichten kann eine Emissionsanzeigeschicht am nächsten am Auge des Nutzers positioniert sein. Bei einer auf Direktansicht beruhenden Erweiterte-Realität-Einrichtung ist die Emissionsanzeigeschicht transparent für einfallendes Licht, das von einer Realweltszene stammt. Eine Emissionsanzeigeschicht ist dafür ausgelegt, Licht oder eine Färbung von mehreren Pixelorten auszustrahlen, um Muster, Formen oder Objekte in Form einer oder mehrerer Emissionsgrafiken, die für einen Nutzer erkennbar sind, zu bilden. Das ausgesandte Licht kann farbig sein.An "emissions display layer" refers to a layer of augmented reality equipment that can present an emissions graphic to a user's eye. Of two or more layers, an emission display layer may be positioned closest to the user's eye. In a direct view augmented reality facility, the emission display layer is transparent to incident light originating from a real world scene. An emission display layer is configured to emit light or a color from multiple pixel locations to form patterns, shapes, or objects in the form of one or more emission graphics recognizable to a user. The emitted light can be colored.
Eine „Dämpfungsanzeigeschicht” bezeichnet eine Schicht einer Erweiterte-Realität-Einrichtung, die eine Dämpfungsgrafik präsentieren kann, die Licht eines Realweltobjektes von einer Emissionsgrafik fernhält. Von zwei oder mehr Schichten ist eine Dämpfungsanzeigeschicht zwischen einer Emissionsanzeigeschicht und einer Realweltszene positioniert. Bei einer auf Direktansicht beruhenden Erweiterte-Realität-Einrichtung kann die Dämpfungsanzeigeschicht transparent gegenüber einfallendem Licht sein, das von einer Realweltszene stammt, oder zu verschiedenen Zeiten oder in verschiedenen Zonen im Wesentlichen opak werden. Eine Dämpfungsanzeigeschicht ist dafür ausgelegt, mehrere Pixelorte im Wesentlichen opak zu machen, um die Ansicht einer Emissionsgrafik dadurch zu unterstützen, dass Licht ferngehalten wird, das ansonsten die Emissionsgrafik infolge der Bildung eines unbeabsichtigten Hellbereiches ausbleiben würde. Bildet eine Dämpfungsanzeigeschicht eine opake Zone, die nicht hinter aktiven Pixeln einer Emissionsgrafik ist, so kann die opake Zone zu einem unbeabsichtigten Dunkelbereich führen.An "attenuation display layer" refers to a layer of augmented reality device that can present a attenuation graph that keeps light from a real world object away from an emission graph. Of two or more layers, an attenuation display layer is positioned between an emission display layer and a real world scene. In a direct view augmented reality device, the attenuation display layer may be transparent to incident light originating from a real world scene, or substantially opaque at different times or in different zones. An attenuation display layer is configured to make a plurality of pixel locations substantially opaque to the view of a pixel To support emission graphics by keeping light out, otherwise the emission graphics would fail due to the formation of an inadvertent bright area. If an attenuation display layer forms an opaque zone that is not behind active pixels of an emission graph, the opaque zone may result in an unintended dark area.
Ein „synthetisches grafisches Bild oder eine „synthetische Grafik” bezeichnet ein Diagramm, Bild, Symbol und dergleichen, das optisch wahrnehmbar und computererzeugt ist. Ein synthetisches graphisches Bild kann dadurch am Computer erstellt werden, dass es aus Vektoren, Bitmaps, Oberflächenstrukturen bzw. Texturen, dreidimensionalen Gittern bzw. Netzen und dergleichen gebildet wird. Zusätzlich oder alternativ kann ein synthetisches graphisches Bild von einem Computer verarbeitet, modifiziert oder gespeichert und in Zusammenwirkung mit anderen Bildern zum Einsatz kommen. Beispiele für synthetische grafische Bilder können eine Emissionsgrafik, eine Dämpfungsgrafik, eine Replikgrafik oder eine Kombination hieraus beinhalten.A "synthetic graphic image or" synthetic graphic "refers to a diagram, image, symbol, and the like that is visually perceptible and computer generated. A synthetic graphic image can be computer-generated by being made up of vectors, bitmaps, textures, three-dimensional grids, and the like. Additionally or alternatively, a synthetic graphical image may be processed, modified or stored by a computer and used in conjunction with other images. Examples of synthetic graphical images may include an emission graphic, a mute graphic, a replica graphic, or a combination thereof.
Eine „Emissionsgrafik” bezeichnet ein Diagramm, Bild, Symbol und dergleichen, das am Computer erzeugt ist und an einer oder durch eine Emissionsanzeigeschicht präsentiert wird. Beispiele für eine Emissionsgrafik können eine Benachrichtigung oder einen Alarmhinweis, Navigationsrichtungen oder Symbole, textartige Kommentare oder Anweisungen, eine animierte Zeichentrickfigur, Information aus einem Social Media Feed oder auch Kombinationen hieraus beinhalten. Eine Emissionsgrafik kann stehend oder in Bewegung sein. Eine Emissionsgrafik kann hier auch als Vordergrundgrafik bezeichnet werden, da die Emissionsgrafik im Vordergrund im Vergleich zur Realweltszene, die als Hintergrund dient, angezeigt wird. Gleichwohl kann eine Emissionsgrafik auch derart wiedergegeben werden, dass die Grafik mit dem Hintergrund vermischt oder in diesen integriert wird, indem beispielsweise der Anschein erweckt wird, dass sie teilweise hinter einem Objekt der Realweltszene befindlich ist. Eine Emissionsgrafik kann durch eine Hintergrundbeleuchtung ausgebleicht oder unbeabsichtigt zu hell wiedergegeben werden, wenn die Emissionsgrafik nicht von einer Dämpfungsgrafik, die die Hintergrundbeleuchtung fernhält, unterstützt wird.An "emissions graph" refers to a chart, image, symbol and the like that is generated on the computer and presented on or through an emissions display layer. Examples of an emissions graph may include a notification or alert, navigation directions or icons, textual comments or instructions, an animated cartoon character, information from a social media feed, or combinations thereof. An emission graph can be upright or in motion. An emission graph can also be called a foreground graph here because the emission graph in the foreground is displayed in comparison to the real world scene that serves as the background. However, an emissions graph may also be rendered such that the graph blends or integrates with the background, for example, by appearing to be partially behind an object of the real world scene. An emission graphic may be bleached by a backlight, or rendered unintentionally too bright if the emission graphics are not supported by a snubber image that keeps the backlight off.
Eine „Dämpfungsgrafik” bezeichnet ein Muster oder eine Form, das/die an einer oder durch eine Dämpfungsanzeigeschicht präsentiert wird. Eine Dämpfungsgrafik kann einer Emissionsgrafik zugeordnet sein, die eine Dämpfungsgrafik unterstützen soll. Eine Dämpfungsgrafik kann beispielsweise derart gebildet werden, dass sie eine im Wesentlichen ähnliche Größe und Form wie eine zugeordnete Emissionsgrafik aufweist. Die Dämpfungsgrafik ist im Wesentlichen opak, sodass das Licht, das von einem Realweltobjekt stammt und durch die Dämpfungsgrafik ferngehalten wird, verhindern kann, dass sich ein unbeabsichtigter Hellbereich über wenigstens einem Teil einer zugeordneten Emissionsgrafik bildet.An "attenuation graph" refers to a pattern or shape presented at or through a damping display layer. An attenuation graph may be associated with an emission graph that is intended to support an attenuation graph. For example, an attenuation graph may be formed to have a substantially similar size and shape to an associated emission graph. The attenuation graph is substantially opaque, such that the light originating from a real world object and kept away by the attenuation graph can prevent an unintended bright area from forming over at least a portion of an associated emission graph.
Eine „Replikgrafik” bezeichnet eine Grafik, die an einer oder durch eine Emissionsanzeigeschicht präsentiert wird. Eine Replikgrafik wird erzeugt, um das Aussehen einer Realweltszene zu reproduzieren. Eine Replikgrafik kann beispielsweise den Helligkeitspegel oder die Färbung in einem bestimmten Bildbereich simulieren. Eine Replikgrafik kann dazu verwendet werden, einen unbeabsichtigten Dunkelbereich zu kaschieren. Daten, die den Pixeln einer Replikgrafik Werte zuweisen, können von einer Kamera, die auf die Realweltszene gerichtet ist, bezogen werden.A "replica graphic" refers to a graphic presented on or through an emissions display layer. A replica artwork is created to reproduce the look of a real world scene. For example, a replica graphic can simulate the brightness level or the coloration in a particular image area. A replica graphic can be used to hide an unintended dark area. Data that assigns values to the pixels of a replica graph can be obtained from a camera that targets the real world scene.
Eine „Kamera” bezeichnet eine Vorrichtung oder Komponente, die einen Sensor beinhaltet, der Licht detektieren kann. Der Lichtsensor kann detektiertes Licht in Daten umwandeln, die das Aussehen der Quelle oder des Ursprungs des Lichtes, so beispielsweise einer Realweltszene, darstellen. Das „Aussehen einer Realweltszene” bezeichnet den Umstand, wie eine Realweltszene visuell aussieht. Das Aussehen eines Bereiches einer Realweltszene kann allgemein einen Helligkeitspegel oder auch Färbungsdetails für spezifische Pixel oder Pixelgruppen betreffen, die beide zum Kaschieren eines unbeabsichtigten Dunkelbereiches verwendet werden können.A "camera" refers to a device or component that includes a sensor that can detect light. The light sensor may convert detected light into data representing the appearance of the source or origin of the light, such as a real world scene. The "look of a real world scene" refers to how a real world scene looks visually. The appearance of an area of a real world scene may generally relate to a brightness level or coloring details for specific pixels or groups of pixels, both of which may be used to conceal an unintended dark area.
Ein „Attribut des Auges” bezeichnet einen bestimmten Aspekt des Auges eines Nutzers einer Erweiterte-Realität-Einrichtung. Das Attribut kann eine Änderungsquantität oder einen Aspekt in Abhängigkeit von der Zeit erfassen, kann eine Momentaufnahme einer sich ändernden Quantität beinhalten, kann eine konstante Eigenschaft beinhalten und dergleichen mehr. Beispiele können einen Wert beinhalten, der die Größe eines Auges, die Richtung eines festen Blickes oder die Bewegung des Auges oder auch die Fokaltiefe des Auges angibt.An "attribute of the eye" refers to a particular aspect of the eye of a user of an augmented reality device. The attribute may capture a change quantity or an aspect as a function of time, may include a snapshot of a changing quantity, may include a constant property, and the like. Examples may include a value indicating the size of an eye, the direction of a fixed eye or the movement of the eye, or the depth of focus of the eye.
Ein „Wert, der die Größe eines Auges angibt” bezeichnet ein bestimmbares Maß eines bestimmten Aspektes des Auges. Ein Wert, der beispielsweise die Größe des Auges angibt, kann den Radius der Pupille eines Auges oder gleichermaßen dessen Durchmesser betreffen. Eine „Richtung eines festen Blickes oder eine Bewegung” bezeichnet den Umstand, wo, unter welchem Winkel und auf welches Objekt ein Auge schaut, was es nachverfolgt oder wohin es schaut. Eine „Fokaltiefe” bezeichnet einen Abstand oder eine Ebene, unter dem/der ein oder beide Augen beobachtbare Details deutlich wiedergeben, so beispielsweise eine Person auf der anderen Seite eines Tisches oder einen Berg auf der anderen Seite eines Tales.A "value indicating the size of an eye" denotes a determinable measure of a particular aspect of the eye. A value indicating, for example, the size of the eye may relate to the radius of the pupil of an eye, or equally its diameter. A "direction of a fixed glance or a movement" refers to the circumstance where, under what angle and on which object an eye looks, what it tracks or where it looks. A "focal depth" refers to a distance or plane below which one or both eyes clearly reflect observable details, such as a person on the other side of a Table or a mountain on the other side of a valley.
Die Verwendung des Wortes „oder” kann im Sinne des Vorliegenden – es sei denn, es ist explizit anders angegeben – ein „einschließendes Oder” oder einen Begriff bezeichnen, der eine Einschließung oder Anwendung eines oder mehrerer Objekte erlaubt, die durch das Wort „oder” verknüpft sind (So kann der Ausdruck „A oder B” beispielsweise derart gedeutet werden, dass er nur „A”, nur „B” oder sowohl „A” wie auch „B” betrifft oder hierfür von Belang ist).The use of the word "or" as used herein may, unless explicitly stated otherwise, signify an "inclusive or" or a term that permits inclusion or application of one or more objects represented by the word "or (For example, the term "A or B" may be interpreted to mean only "A", "B", or both "A" and "B", or is relevant thereto).
Exemplarische UmgebungExemplary environment
Bei exemplarischen Ausführungsformen ist die Erweiterte-Realität-Einrichtung
Die Emissionsgrafik
Die Rechenvorrichtung
Die Rechenvorrichtung
Systeme und TechnikenSystems and techniques
Der vorliegende Abschnitt beschreibt exemplarische Details für Systeme und Techniken zur Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System entsprechend einer oder mehreren Ausführungsformen.The present section describes exemplary details for systems and techniques for image compensation for a masking, direct view augmented reality system, according to one or more embodiments.
Mehrere Lichtstrahlen
Bei exemplarischen Ausführungsformen weist die Dämpfungsanzeigeschicht
Die Kamera
Die Dämpfungsgrafik
Diese beiden Höfe (für die die Bereiche
Das Dunkelbereichskompensationsmodul
Die scharfe Dämpfungslage
Das Synthetische-Grafik-Modul
Bei gewissen exemplarischen Ausführungsformen ergänzt das Hellbereichskompensationsmodul
Die beiden verschiedenen Versionen einer Dämpfungslage für die Dämpfungsanzeigeschicht
Exemplarische Betriebsvorgänge des Hellbereichskompensationsmoduls
Die Vordergrundgrafik weist eine räumlich variierende nicht vorab multiplizierte Intensität IF, die der Emissionsgrafik
In einem Fall, in dem das Auge eines Nutzers auf die Tiefe der Vordergrundgrafikanzeige fokussiert ist und sich der Hintergrund in derselben Tiefe befindet, wird die effektive Transparenz des Hintergrunddämpfungselementes als TB berechnet, was sich aus einer Faltung der Dämpfungspixel tB bezüglich der Größe der Pupille unter Verwendung von Gleichung (2) ergibt:
Hierbei ist W(i, j) ein Kern, der die Faltung durch das Auge der Dämpfungsgrafik darstellt, wobei der Kernradius k in Pixelkoordinaten der Dämpfungsanzeigeschicht ausgedrückt wird.Here, W (i, j) is a kernel representing the convolution through the eye of the attenuation graph, where the core radius k is expressed in pixel coordinates of the attenuation display layer.
Zur Berechnung von W(X, Y) im Koordinatensystem der Dämpfungsanzeigeschicht wird die Realweltdämpfungsfunktion entsprechend der physikalischen Apertur des Auges E(X, Y) auf die Dämpfungsanzeigeschicht projiziert und in Pixelkoordinaten umgewandelt. Eine vereinfachende Annahme besteht darin, die Pupille als rund und die Ansichtsrichtung als senkrecht zur Anzeige zu betrachten, wobei in diesem Fall W(i, j) die Form einer kreisförmigen Top-Hat-Funktion mit dem Wert 1 innerhalb des Radius des Kreises und dem Wert 0 andernfalls annimmt. Alternativ kann bei einer nichtsenkrechten Ansichtsrichtung die Pupille unter Verwendung einer Ellipse angenähert werden. Bei senkrechter Ansichtsrichtung und einer runden Pupille hängt der Radius Ratt der Top-Hat-Funktion in physikalischen Einheiten vom Pupillenradius des Auges Reye ab. Insbesondere hängt der Radius Ratt vom Pupillenradius des Auges Reye so ab, wie die Skalierung durch das Verhältnis der Abstände (i) zwischen dem Auge und dem virtuellen Bild und (ii) zwischen der Dämpfungsanzeige und dem virtuellen Bild skaliert ist. Der Radius Ratt der Top-Hat-Funktion wird aus Gleichung (3) berechnet:
Die Variablen von Gleichung (3) werden nachstehend beschrieben. Die Größe der Pupille eines Auges (beispielsweise der Pupillenradius Reye des Auges) kann unter Verwendung einer hin zu dem Auge gerichteten Kamera bestimmt werden, so beispielsweise einer Kamera, die auch zur Augennachverfolgung (eye-tracking) verwendet wird. Mit Blick auf die anderen drei Variablen zeigt
Nimmt man an, dass das Ziel von TB eine starke Annäherung an TF ist, so kann das Problem als Optimierung mit Randbedingungen zur Maximierung der Feldanordnung von tB Werten mit einer L1- oder L2-Norm formuliert werden, wobei die Randbedingungen aus vorgenannter Gleichung (2) gelten. Diese Optimierung mit Randbedingungen kann durch Gleichung (4) dargestellt werden:
Die Optimierungen mit Randbedingungen sind jedoch gegebenenfalls nicht mit niedrige Latenz aufweisenden Echtzeitberechnungen kompatibel, was insbesondere für eine über geringe Ressourcen verfügende Vorrichtung, so beispielsweise für eine tragbare oder eine andere mobile Rechenvorrichtung, gilt. Anstatt dessen kann die Variable tB als Minimalwert für alle Pixel für einen min-Kern M formuliert werden, der bezüglich x, y mit einer Domäne zentriert ist, die größer oder gleich dem Faltungskern W(i, j) ist.However, the constraints may not be compatible with low latency real-time computations, particularly for a low-resource device such as a portable or other mobile computing device. Instead, the variable t B may be formulated as a minimum value for all pixels for a min-kernel M centered on x, y with a domain greater than or equal to the convolution kernel W (i, j).
Ein konservativer Satz von tB Werten kann sodann unter Verwendung von Gleichung (5) berechnet werden:
Es ist augenscheinlich, dass dies Gleichung (4) erfüllt, da tB(i, j) kleiner oder gleich TF(x, y) mit Blick auf den Kern ist. Der Faltungskern W(i, j) ist normiert und nimmt keine negativen Gewichtungen an. Diese Beziehung gilt, solange der ursprünglich unscharfe Kern gänzlich in die min-Kern-Domäne von M passt. Ein min-Kern kann für eine optimale Effizienz gewählt werden. Ein Nachteil der Wahl eines Kerns, der zu groß ist, besteht jedoch darin, dass ein derartiger zu großer Kern zu einem größeren Dunkelbereich um die Vordergrundgrafik herum, für die eine Kompensation anschließend berechnet werden soll, führt.It is evident that this satisfies equation (4) since t B (i, j) is less than or equal to T F (x, y) with respect to the kernel. The convolution kernel W (i, j) is normalized and does not accept negative weights. This relationship holds as long as the originally fuzzy core fits entirely into M's min-core domain. A min core can be chosen for optimal efficiency. However, a disadvantage of choosing a kernel that is too large is that such a too large kernel leads to a larger dark area around the foreground image for which compensation is subsequently to be calculated.
Für kreisförmige Kameraaperturen (beispielsweise menschliche Pupillen und bestimmte Kameras) kann ein kreisförmiger min-Filter eingesetzt werden, der ein wenig größer als der Faltungsdurchmesser des Faltungskernes W ist. Alternativ kann ein quadratischer min-Filter verwendet werden, dessen Halbbreite größer oder gleich der Halbbreite k des W-Filters ist. Ein eindimensionaler (1-D)-min-Filter kann vergleichsweise effizient berechnet werden, wenn eine räumlich invariante Filterbreite gegeben ist, die nur drei Vergleiche pro Pixel unabhängig von der Filterbreite verwendet. Ein zweidimensionaler (2-D)-Kasten-min-Filter ist separierbar, was einen Durchlauf zur horizontalen Filterung und einen zweiten Durchlauf zur vertikalen Filterung ermöglicht. Ein kreisförmiger Filter kann als Zusammenführung eines Satzes von 1-D Filtern berechnet werden, wobei die Kosten hiervon proportional zur Filterhöhe sind. Für einen schnellen kreisförmigen Filter kann der min-Filter dadurch berechnet werden, dass eine Serie von Filterfaltungen an jeder der Quellen-Scan-Linien für den Kern kombiniert wird. Die Gesamtkosten sind im Radius des Filterkernes linear.For circular camera apertures (for example, human pupils and certain cameras), a circular min filter may be used which is slightly larger than the convolution diameter of the convolution kernel W. Alternatively, a quadratic min filter may be used whose half width is greater than or equal to the half width k of the W filter. A one-dimensional (1-D) -min filter can be computed comparatively efficiently given a spatially invariant filter width that uses only three comparisons per pixel regardless of the filter width. A two-dimensional (2-D) box-min filter is separable, allowing one pass for horizontal filtering and a second pass for vertical filtering. A circular filter can be calculated as a combination of a set of 1-D filters, the cost of which is proportional to the filter height. For a fast circular filter, the min filter can be calculated by having a series of filter convolutions on each of the source scan lines for the core is combined. The total costs are linear in the radius of the filter core.
Es wird eine exemplarische simulierte zusammengesetzte Bildansicht
Die erweiterte Dämpfungsgrafik
Das Dunkelbereichskompensationsmodul
Exemplarische Betriebsvorgänge des Dunkelbereichskompensationsmoduls
Unter Verwendung des kreisförmigen Kern-min-Transparenzalgorithmus, der vorstehend für das Hellbereichskompensationsmodul beschrieben worden ist, wird die erweiterte Dämpfungslage
Das farbige Intensitätsreplikbild
IB ist hierbei die Intensität des Hintergrundes so, wie er über eine Kamera bezogen wird, TB ist die Unschärfedämpfungslage
Hierbei ist IF die Intensität der Emissionsgrafik
Nachdem exemplarische Details der Systeme, Techniken und Schemen zur Bildkompensation für ein verdeckendes auf Direktansicht beruhendes Erweiterte-Realität-System beschrieben worden sind, werden nunmehr einige exemplarische Prozeduren zur Darstellung von zusätzlichen Aspekten der Techniken betrachtet.Having described exemplary details of the image compensation systems, techniques, and schemes for a hidden direct-view augmented reality system, some exemplary procedures for illustrating additional aspects of the techniques will now be considered.
Exemplarische ProzedurenExemplary procedures
Der vorliegende Abschnitt beschreibt anhand
Bei Block
Bei Block
Bei Block
Bei Block
Bei Block
Nachdem exemplarische Prozeduren entsprechend einer oder mehreren Ausführungsformen beschrieben worden sind, werden nunmehr ein exemplarisches System und eine exemplarische Vorrichtung betrachtet, die zum Implementieren der verschiedenen hier beschriebenen Schemen und Techniken verwendet werden können.Having described exemplary procedures in accordance with one or more embodiments, an exemplary system and apparatus will now be considered that may be used to implement the various schemes and techniques described herein.
Genauigkeits- und FehleranalyseAccuracy and error analysis
Bei einer Erweiterte-Realität-Einrichtung kann das Vordergrundemissionslicht als in einem festen Abstand fokussiert präsentiert werden. Ist dem so, so stellen bestimmte Implementierungen der vorliegenden Beschreibung eine Annäherung bereit, bei der kompensierende Grafiken, die von einer Emissionsanzeigeschicht präsentiert werden, in einer Tiefe und mit einer Auflösung, die von der Emissionsanzeigeschicht bestimmt werden, präsentiert werden. Der Direktansichtshintergrund unterliegt jedoch Beschränkungen durch das optische Leistungsvermögen des Auges des Betrachters und das Glas, durch das das Licht hindurchtritt (beispielsweise einschließlich Beugungseffekten von der Dämpfungsanzeigeschicht).In an augmented reality device, the foreground emission light may be presented as being focused at a fixed distance. If so, certain implementations of the present description provide an approximation in which compensating graphics presented by an emissions display layer are presented at a depth and with a resolution determined by the emissions display layer. However, the direct view background is limited by the optical performance of the observer's eye and the glass through which the light passes (for example, including diffraction effects from the attenuation display layer).
Zur Verringerung der wahrnehmbaren Bildartefakte kann eine Replikgrafik (beispielsweise ein Vordergrundkompensationsbild) auf einen möglichst kleinen Grenzbereich (beispielsweise derart, dass eine entsprechende Dämpfungsgrafik weiterhin einen inneren Hellhof eliminieren kann, wenn eine Linsenunschärfe auftritt) und eine möglichst niedrige Helligkeit (beispielsweise derart, dass weiterhin eine wahrnehmbare Helligkeitsnuance für eine äußeren Dunkelhof vermieden wird) beschränkt werden. Ein zusätzlicher Faktor, der die beschriebenen Implementierungen beeinflussen kann, ist das Potenzial einer optischen Fehlausrichtung zwischen Grafiken der Dämpfungsanzeigeschicht und Grafiken der Emissionsanzeigeschicht, was zu einer Unsicherheit der Augenposition führen kann. Es kann zudem eine Fehlausrichtung zwischen geschätzten Ansichten der Hintergrundszene und Licht, das tatsächlich aus dem Hintergrund stammt, vorhanden sein. Die Fehlausrichtung kann durch Fehler bei der Schätzung der Pupillengröße auftreten. Eine sorgfältige Implementierung der hier beschriebenen Techniken kann ermöglichen, dass diese Probleme und Faktoren geeignet behoben werden.To reduce perceptible image artifacts, a replica image (eg, a foreground compensation image) may be as small as possible (e.g., such that a corresponding attenuation map can still eliminate an inner halo when lens blurring occurs) and as low as possible (e.g. perceptible brightness nuance is avoided for an outer dark court). An additional factor that may affect the described implementations is the potential for optical misalignment between attenuation display layer graphics and emissions display layer graphics, which can lead to eye position uncertainty. There may also be misalignment between estimated views of the background scene and light actually coming from the background. The misalignment can occur due to errors in the estimation of pupil size. Careful implementation of the techniques described herein may enable these problems and factors to be properly addressed.
Eine Erweiterte-Realität-Einrichtung kann eine nach vorne gerichtete Kamera beinhalten, die die Berechnung und Auswahl einer Verdeckung durch eine Emissionsgrafik in Bezug auf Realweltobjekte ermöglicht. Dies kann das Vornehmen einer Tiefenschätzung der Realwelt und das Beziehen eines Intensitätsbildes implizieren. Eine derartige Einrichtung und die damit verbundene Funktionalität kann ausreichend sein, um eine Schätzung der Ansicht der Welt so, wie sie von einem oder beiden Augen betrachtet wird, auf Grundlage eines geschätzten Kameramodells zu entwickeln. Aus dieser Information können Tiefen geschätzt werden, und es können durch eine Kamera erworbene Bilder verzerrt (warped) werden, um als Hintergrundbilder für beschriebene Implementierungen zu dienen.An augmented reality facility may include a front-facing camera that allows for calculation and selection of obscuration by an emission graph in relation to real world objects. This may imply making a depth estimate of the real world and relating an intensity image. Such a device and the functionality associated therewith may be sufficient to develop an estimate of the world's view as viewed by one or both eyes based on an estimated camera model. From this information, depths can be estimated, and images acquired by a camera can be warped to serve as background images for described implementations.
Bei einem optischen System können sich mehrere Formen von Fehlausrichtungen entwickeln. Der geschätzte Hintergrund IB kann sich beispielsweise relativ zum wahren Hintergrund so, wie er von den Augen des Betrachters gesehen wird, verschieben.
Die zusammengesetzte Bildansicht
Ein sichtbarer Artefakt kann als Ergebnis von Fehlern bei der Schätzung des Pupillendurchmessers des Auges auftreten (beispielsweise wenn eine Defokussierung vorhanden ist, um das verdeckende Objekt unscharf zu machen).
Eine zusätzliche Form von Fehler kann infolge der Einstellung der Augen des Nutzers auf verschiedene Tiefen auftreten.
Der Effekt dieses Problems kann durch Defokussieren der Replikgrafik (beispielsweise des geschätzten Hintergrundes) unter Verwendung einer Tiefeninformation und einer Schätzung der Feldtiefe für die Augen, die auf der Pupillengröße und der Augenkonvergenz beruht, verbessert werden. Beruhen kann das Defokussieren (beispielsweise unter Einsatz einer Hardwarelösung) beispielsweise auf dem Anpassen der erfassenden Kamera derart, dass diese eine ähnliche Feldtiefe und Fokustiefe wie das menschliche Auge aufweist, oder es kann auf Grundlage eines synthetisierten Effektes unter Verwendung einer Tiefenabbildung bzw. Karte und von Bildfiltern (beispielsweise eher unter Einsatz einer Softwarelösung) realisiert werden. Alternativ kann die Szene unter Verwendung einer Hellfeld- bzw. Lichtfeldkamera aufgenommen werden. Eine geeignete Fokaltiefe kann durch Nachverfolgen der Augen des Nutzers sowie unter Verwendung der Konvergenz der Augen zur Schätzung der Tiefeneinstellung bestimmt werden. Diese Arten von Artefakten sind jedoch gegebenenfalls akzeptabel, ohne dass die Fokustiefe eingestellt wird, wenn ein vergleichsweise geringer Grad der Unschärfe involviert ist, so beispielsweise demjenigen, der in der simulierten zusammengesetzten Bildansicht
Ein weiteres Problem kann auftreten, wenn der Nutzer sich auf den Hintergrund einstellt, was bewirken kann, dass der Vordergrund unscharf ist.
Exemplarisches System und exemplarische VorrichtungExemplary system and exemplary device
Bei einer exemplarischen Implementierung arbeitet, wie in
Die exemplarische Rechenvorrichtung
Das Verarbeitungssystem
Das computerlesbare Speichermedium
Die Eingabe-/Ausgabe-Schnittstelle
Verschiedene Techniken sind hier im allgemeinen Kontext von Software- und Hardwareelementen oder Programmmodulen beschrieben worden. Allgemein können derartige Module Routinen, Programme, Objekte, Elemente, Komponenten, Datenstrukturen, Kombinationen hieraus und dergleichen mehr, die bestimmte Aufgaben ausführen oder bestimmte abstrakte Datentypen implementieren, beinhalten. Die Begriffe „Modul”, „Funktionalität” und „Komponente” bezeichnen im Sinne des Vorliegenden allgemein Software, Firmware, Hardware oder eine Kombination hieraus. Die Merkmale der hier beschriebenen Techniken können plattformunabhängig sein, was bedeutet, dass die beschriebenen Techniken auf einer Vielzahl von handelsüblichen Rechenplattformen, die eine Vielzahl von Prozessoren aufweisen, implementiert sein können.Various techniques have been described herein in the general context of software and hardware elements or program modules. Generally, such modules may include routines, programs, objects, elements, components, data structures, combinations thereof, and the like that perform particular tasks or implement particular abstract data types. The terms "module," "functionality," and "component" generally refer to software, firmware, hardware, or a combination thereof as used herein. The features of the techniques described herein may be platform independent, meaning that the described techniques may be implemented on a variety of off-the-shelf computing platforms having a plurality of processors.
Eine Ausführungsform der beschriebenen Module und Techniken kann auf einer beliebigen Form von computerlesbarem Medium gespeichert oder durch dieses übertragen werden. Das computerlesbare Medium
„Computerlesbare Speichermedien” bezeichnen im Sinne des Vorliegenden Medien oder Vorrichtungen, die eine dauerhafte und/oder nichttemporäre Speicherung von Information ermöglichen, im Gegensatz zur bloßen Signalübertragung, zu Trägerwellen oder Signalen als solche. Daher beinhalten computerlesbare Speichermedien keine Signale oder signaltragenden Medien als solche. Die computerlesbaren Speichermedien beinhalten Hardware, so beispielsweise flüchtige und nichtflüchtige, entfernbare und nichtentfernbare Medien oder Speichervorrichtungen zur Implementierung bei einem Prozess oder einer Technologie, die zur Speicherung von Information geeignet ist, so beispielsweise computerlesbare Anweisungen, Datenstrukturen, Programmmodule, logische Elemente/Schaltungen oder andere Daten. Beinhalten können Beispiele für computerlesbare Speichermedien unter anderem RAM, ROM, EEPROM, einen Flash-Speicher oder eine andere Speichertechnologie, so beispielsweis Solid State, CD-ROM, DVD oder einen anderen optischen Speicher, Festplatten, magnetische Kassetten, Magnetbänder, magnetische Plattenspeicher oder andere magnetische Speichervorrichtungen, oder eine andere Speichervorrichtung, physische Medien oder ein Herstellungserzeugnis und eine Kombination hieraus mit der Fähigkeit, die gewünschte Information so zu speichern, dass ein Computer darauf zugreifen kann."Computer-readable storage media" as used herein refers to media or devices that allow for permanent and / or non-temporary storage of information, as opposed to mere signal transmission, to carrier waves or signals as such. Therefore, computer readable storage media does not include signals or signal carrying media as such. The computer readable storage media include hardware such as volatile and nonvolatile, removable and non-removable media or memory devices for implementation in a process or technology suitable for storage of information such as computer readable instructions, data structures, program modules, logic elements / circuits or others Dates. Examples of computer-readable storage media may include, but are not limited to, RAM, ROM, EEPROM, flash memory, or other storage technology, such as solid state, CD-ROM, DVD or other optical storage, hard drives, magnetic cassettes, magnetic tapes, magnetic disk drives, or others magnetic storage devices, or other storage device, physical media, or a manufactured product, and a combination thereof with the ability to store the desired information so that a computer can access it.
„Computerlesbare Signalmedien” bezeichnen im Sinne des Vorliegenden ein signaltragendes Medium, das dafür implementiert ist, Anweisungen an die Hardware der Rechenvorrichtung
Wie vorstehend beschrieben worden ist, können Hardwareelemente
Es können auch Kombinationen aus dem Vorstehenden zur Implementierung von verschiedenen der hier beschriebenen Techniken eingesetzt werden. Entsprechend können Software, Hardware oder ausführbare Module als eine oder mehrere Anweisungen oder Logik implementiert sein, die in irgendeiner Form von computerlesbaren Speichermedien oder durch ein oder mehrere Hardwareelemente
Die hier beschriebenen Techniken können durch verschiedene Konfigurationen der Rechenvorrichtung
Die Cloud
Die Plattform
Schlussbemerkungconcluding remark
Obwohl die Erfindung in einer Sprache beschrieben worden ist, die für Strukturmerkmale und/oder methodische Vorgänge spezifisch ist, sollte einsichtig sein, dass die in den beigefügten Ansprüchen definierte Erfindung nicht notwendigerweise auf die beschriebenen bestimmten Merkmale oder Vorgänge beschränkt ist. Vielmehr sind die spezifischen Merkmale und Vorgänge als exemplarische Formen der Implementierung der beanspruchten Erfindung offenbart.While the invention has been described in language specific to structural features and / or methodological acts, it is to be understood that the invention as defined in the appended claims is not necessarily limited to the particular features or acts described. Rather, the specific features and acts are disclosed as exemplary forms of implementation of the claimed invention.
Claims (20)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/133,025 | 2016-04-19 | ||
US15/133,025 US10134198B2 (en) | 2016-04-19 | 2016-04-19 | Image compensation for an occluding direct-view augmented reality system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102016013766A1 true DE102016013766A1 (en) | 2017-10-19 |
Family
ID=57993694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016013766.5A Pending DE102016013766A1 (en) | 2016-04-19 | 2016-11-17 | Image compensation for a masking, direct-view augmented reality system |
Country Status (5)
Country | Link |
---|---|
US (3) | US10134198B2 (en) |
CN (1) | CN107306332B (en) |
AU (1) | AU2016259427B2 (en) |
DE (1) | DE102016013766A1 (en) |
GB (1) | GB2549563B (en) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10134198B2 (en) | 2016-04-19 | 2018-11-20 | Adobe Systems Incorporated | Image compensation for an occluding direct-view augmented reality system |
CA3045780A1 (en) * | 2017-01-30 | 2018-08-02 | Novartis Ag | Systems and method for augmented reality ophthalmic surgical microscope projection |
CN106773060B (en) * | 2017-02-10 | 2019-05-10 | 京东方科技集团股份有限公司 | Wear-type virtual reality device |
US10403045B2 (en) | 2017-08-11 | 2019-09-03 | Adobe Inc. | Photorealistic augmented reality system |
US10782776B2 (en) * | 2017-09-28 | 2020-09-22 | Nissan North America, Inc. | Vehicle display configuration system and method |
US10991138B2 (en) * | 2017-12-22 | 2021-04-27 | The Boeing Company | Systems and methods for in-flight virtual reality displays for passenger and crew assistance |
TWI675583B (en) * | 2018-07-23 | 2019-10-21 | 緯創資通股份有限公司 | Augmented reality system and color compensation method thereof |
CN109714583B (en) * | 2019-01-22 | 2022-07-19 | 京东方科技集团股份有限公司 | Augmented reality display method and augmented reality display system |
KR20210123198A (en) * | 2020-04-02 | 2021-10-13 | 주식회사 제이렙 | Argumented reality based simulation apparatus for integrated electrical and architectural acoustics |
US11423621B1 (en) * | 2020-05-21 | 2022-08-23 | Facebook Technologies, Llc. | Adaptive rendering in artificial reality environments |
CN114578554B (en) * | 2020-11-30 | 2023-08-22 | 华为技术有限公司 | Display equipment for realizing virtual-real fusion |
US11295531B1 (en) * | 2021-02-24 | 2022-04-05 | Allison Cecile Westley | System and method for generating interactive virtual image frames in an augmented reality presentation |
CN113419630B (en) * | 2021-06-28 | 2022-12-13 | 西北工业大学 | Projection AR-based adaptive occlusion elimination method |
WO2023283376A1 (en) * | 2021-07-08 | 2023-01-12 | Hover Inc. | Methods, storage media, and systems for integrating data streams to generate visual cues |
TWI828397B (en) * | 2021-11-18 | 2024-01-01 | 東陽實業廠股份有限公司 | Intelligent transparent shading system |
KR20230103379A (en) * | 2021-12-31 | 2023-07-07 | 삼성전자주식회사 | Method and apparatus for processing augmented reality |
CN115512083B (en) * | 2022-09-20 | 2023-04-11 | 广西壮族自治区地图院 | Multi-inclination-angle numerical control sand table self-adaptive projection method |
Family Cites Families (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5517580A (en) | 1991-06-19 | 1996-05-14 | Texas Instruments Incorporated | Method for estimating the shape of an object from IR image shading |
JPH05328260A (en) * | 1992-05-26 | 1993-12-10 | Olympus Optical Co Ltd | Head mount type display device |
US6636627B1 (en) | 1999-07-12 | 2003-10-21 | Fuji Photo Film Co., | Light source direction estimating method and apparatus |
AU2002239328A1 (en) | 2000-11-08 | 2002-05-27 | Yale University | Illumination based image synthesis |
JP3767541B2 (en) | 2002-11-12 | 2006-04-19 | ソニー株式会社 | Light source estimation apparatus, light source estimation method, imaging apparatus, and image processing method |
JP4898459B2 (en) | 2004-02-17 | 2012-03-14 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Depth map generation |
EP2160037A3 (en) * | 2006-06-23 | 2010-11-17 | Imax Corporation | Methods and systems for converting 2D motion pictures for stereoscopic 3D exhibition |
JP5448617B2 (en) | 2008-08-19 | 2014-03-19 | パナソニック株式会社 | Distance estimation device, distance estimation method, program, integrated circuit, and camera |
US8289318B1 (en) | 2008-08-29 | 2012-10-16 | Adobe Systems Incorporated | Determining three-dimensional shape characteristics in a two-dimensional image |
US8463072B2 (en) | 2008-08-29 | 2013-06-11 | Adobe Systems Incorporated | Determining characteristics of multiple light sources in a digital image |
US20120188279A1 (en) * | 2009-09-29 | 2012-07-26 | Kent Demaine | Multi-Sensor Proximity-Based Immersion System and Method |
KR101671185B1 (en) | 2010-03-22 | 2016-11-01 | 삼성전자주식회사 | Apparatus and method for extracting light and texture, and rendering apparatus using light and texture |
US9901828B2 (en) * | 2010-03-30 | 2018-02-27 | Sony Interactive Entertainment America Llc | Method for an augmented reality character to maintain and exhibit awareness of an observer |
US8941559B2 (en) | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
US20120223885A1 (en) * | 2011-03-02 | 2012-09-06 | Microsoft Corporation | Immersive display experience |
JP2015504616A (en) * | 2011-09-26 | 2015-02-12 | マイクロソフト コーポレーション | Video display correction based on sensor input of transmission myopia display |
JP6157496B2 (en) * | 2011-11-30 | 2017-07-05 | コーニング インコーポレイテッド | Optical coating methods, equipment, and products |
US9330500B2 (en) | 2011-12-08 | 2016-05-03 | The Board Of Trustees Of The University Of Illinois | Inserting objects into content |
US9311751B2 (en) * | 2011-12-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Display of shadows via see-through display |
CN102568026B (en) * | 2011-12-12 | 2014-01-29 | 浙江大学 | Three-dimensional enhancing realizing method for multi-viewpoint free stereo display |
US9117303B2 (en) * | 2012-03-25 | 2015-08-25 | Membit Inc. | System and method for defining an augmented reality view in a specific location |
CN103472909B (en) | 2012-04-10 | 2017-04-12 | 微软技术许可有限责任公司 | Realistic occlusion for a head mounted augmented reality display |
US8970626B2 (en) | 2012-04-17 | 2015-03-03 | Nvidia Corporation | System, method, and computer program product for adding computer-generated scene elements into a representation of a real-world scene, using path tracing |
GB201217721D0 (en) * | 2012-10-03 | 2012-11-14 | Holition Ltd | Video image processing |
US9448404B2 (en) * | 2012-11-13 | 2016-09-20 | Qualcomm Incorporated | Modifying virtual object display properties to increase power performance of augmented reality devices |
US10514541B2 (en) * | 2012-12-27 | 2019-12-24 | Microsoft Technology Licensing, Llc | Display update time reduction for a near-eye display |
US9858721B2 (en) | 2013-01-15 | 2018-01-02 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for generating an augmented scene display |
US10488535B2 (en) * | 2013-03-12 | 2019-11-26 | Rearden, Llc | Apparatus and method for capturing still images and video using diffraction coded imaging techniques |
US9639964B2 (en) * | 2013-03-15 | 2017-05-02 | Elwha Llc | Dynamically preserving scene elements in augmented reality systems |
US9230473B2 (en) * | 2013-06-24 | 2016-01-05 | Microsoft Technology Licensing, Llc | Dual duty cycle OLED to enable dynamic control for reduced motion blur control with constant brightness in augmented reality experiences |
US9299188B2 (en) | 2013-08-08 | 2016-03-29 | Adobe Systems Incorporated | Automatic geometry and lighting inference for realistic image editing |
US9285872B1 (en) * | 2013-12-12 | 2016-03-15 | Google Inc. | Using head gesture and eye position to wake a head mounted device |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
CN106133796B (en) * | 2014-03-25 | 2019-07-16 | 苹果公司 | For indicating the method and system of virtual objects in the view of true environment |
CN104298722B (en) * | 2014-09-24 | 2018-01-19 | 张鸿勋 | Digital video interactive and its method |
US10176639B2 (en) * | 2014-11-27 | 2019-01-08 | Magic Leap, Inc. | Virtual/augmented reality system having dynamic region resolution |
CN104766270B (en) * | 2015-03-20 | 2017-10-03 | 北京理工大学 | One kind is based on fish-eye actual situation illumination fusion method |
US10203566B2 (en) * | 2015-12-21 | 2019-02-12 | Facebook Technologies, Llc | Enhanced spatial resolution using a segmented electrode array |
US20170256095A1 (en) * | 2016-03-02 | 2017-09-07 | Siemens Medical Solutions Usa, Inc. | Blocking screen in Augmented Reality |
KR102358677B1 (en) * | 2016-03-07 | 2022-02-03 | 매직 립, 인코포레이티드 | Blue light adjustment for biometric authentication security |
US10134198B2 (en) | 2016-04-19 | 2018-11-20 | Adobe Systems Incorporated | Image compensation for an occluding direct-view augmented reality system |
US10403045B2 (en) | 2017-08-11 | 2019-09-03 | Adobe Inc. | Photorealistic augmented reality system |
-
2016
- 2016-04-19 US US15/133,025 patent/US10134198B2/en active Active
- 2016-11-15 CN CN201611004861.2A patent/CN107306332B/en active Active
- 2016-11-17 DE DE102016013766.5A patent/DE102016013766A1/en active Pending
- 2016-11-18 GB GB1619550.5A patent/GB2549563B/en active Active
- 2016-11-18 AU AU2016259427A patent/AU2016259427B2/en active Active
-
2018
- 2018-08-27 US US16/114,112 patent/US10891804B2/en active Active
-
2020
- 2020-12-02 US US17/110,120 patent/US11514657B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11514657B2 (en) | 2022-11-29 |
AU2016259427B2 (en) | 2021-11-11 |
US10891804B2 (en) | 2021-01-12 |
CN107306332B (en) | 2021-03-26 |
AU2016259427A1 (en) | 2017-11-02 |
US20180365906A1 (en) | 2018-12-20 |
GB201619550D0 (en) | 2017-01-04 |
US10134198B2 (en) | 2018-11-20 |
US20210090353A1 (en) | 2021-03-25 |
GB2549563A (en) | 2017-10-25 |
GB2549563B (en) | 2018-09-26 |
US20170301145A1 (en) | 2017-10-19 |
CN107306332A (en) | 2017-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016013766A1 (en) | Image compensation for a masking, direct-view augmented reality system | |
DE102013114527B4 (en) | Close-to-eye display with a microlens array | |
DE102013114542B4 (en) | Display close to the eye with parallax lock | |
DE102013114518B4 (en) | Displays close to the eye with optical deconvolution | |
DE102020110662A1 (en) | SIMULTANEOUS POSITIONING AND MAP CREATION (SLAM) FOR MULTIPLE USERS | |
DE60023970T2 (en) | Image processing apparatus and method | |
DE102009041431B4 (en) | Driving simulation apparatus, wide-angle camera video simulation apparatus and image deforming / composing apparatus | |
DE102018006050A1 (en) | Parallax correction in Virtual Reality | |
DE112020001415T5 (en) | Remote communication environment | |
DE102021118479A1 (en) | EMBEDDING COMPLEX 3D OBJECTS INTO AN AUGMENTED REALITY SCENE USING IMAGE SEGMENTATION | |
DE112012001022T5 (en) | Alignment control in a head-worn augmented reality device | |
DE19958329A1 (en) | Time based effect of shadows on a specific graphical computer generated image | |
DE102017118714A1 (en) | Multi-level camera carrier system for stereoscopic image acquisition | |
CN111292389B (en) | Image processing method and device | |
DE112015004871T5 (en) | Method for automated real-time conversion of 2D RGB images and video into stereoscopic red-cyan 3D anaglyphs | |
DE102019005885A1 (en) | Area map generation and hole filling | |
DE112019002353T5 (en) | TECHNIQUES FOR SWITCHING BETWEEN IMMERSION LEVELS | |
US11328437B2 (en) | Method for emulating defocus of sharp rendered images | |
DE102020000789A1 (en) | Controlling or regulating a reality-enhancing display with transparency control or regulation using several sets of video buffers | |
DE69830572T2 (en) | IMPROVEMENT IN ARTIFICIAL IMAGING | |
DE102004040372B4 (en) | Method and device for displaying a three-dimensional topography | |
DE102020104415A1 (en) | MOVEMENT IN AN ENVIRONMENT | |
CN115496884A (en) | Virtual and real cabin fusion method based on SRWorks video perspective technology | |
US11308586B2 (en) | Method for applying a vignette effect to rendered images | |
DE102020104055A1 (en) | RENDERING OF OBJECTS TO CUSTOMIZE THE CAMERA SOUND |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R081 | Change of applicant/patentee |
Owner name: ADOBE INC., SAN JOSE, US Free format text: FORMER OWNER: ADOBE SYSTEMS INCORPORATED, SAN JOSE, CALIF., US |
|
R082 | Change of representative |
Representative=s name: MUELLER-BORE & PARTNER PATENTANWAELTE PARTG MB, DE |
|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |