DE102020105652B4 - Verfolgungssystem mit infrarot-kamera - Google Patents

Verfolgungssystem mit infrarot-kamera Download PDF

Info

Publication number
DE102020105652B4
DE102020105652B4 DE102020105652.4A DE102020105652A DE102020105652B4 DE 102020105652 B4 DE102020105652 B4 DE 102020105652B4 DE 102020105652 A DE102020105652 A DE 102020105652A DE 102020105652 B4 DE102020105652 B4 DE 102020105652B4
Authority
DE
Germany
Prior art keywords
infrared
light source
infrared light
head
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020105652.4A
Other languages
English (en)
Other versions
DE102020105652A1 (de
Inventor
Kai-Han Chang
Thomas A. Seder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102020105652A1 publication Critical patent/DE102020105652A1/de
Application granted granted Critical
Publication of DE102020105652B4 publication Critical patent/DE102020105652B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0068Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration having means for controlling the degree of correction, e.g. using phase modulators, movable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • G02B2027/012Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility comprising devices for attenuating parasitic image effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instrument Panels (AREA)

Abstract

Ein System (200), umfassend:eine Infrarot-Lichtquelle (118);eine Infrarot-Kamera (130); undeine Steuerung (210), die eine Verarbeitungsschaltung (212) umfasst, die eingerichtet ist, eine Impulsbeleuchtung der Infrarot-Lichtquelle (118) zu steuern, eine Bildsequenz von der Infrarot-Kamera (130) zu erfassen, die Infrarot-Rauschen kombiniert mit einer erfassten Reflexion der Impulsbeleuchtung umfasst, das Infrarot-Rauschen aus der Bildsequenz basierend auf einem Vergleich der erfassten Reflexion der Impulsbeleuchtung mit einem erwarteten Ergebnis der Impulsbeleuchtung zu filtern und ein Merkmal von Interesse in der Bildsequenz nach dem Filtern des Infrarot-Rauschens zu verfolgen,wobei die Infrarot-Lichtquelle (118), die Infrarot-Kamera (130) und die Steuerung (210) mit einem Head-up-Display (102) verbunden sind,wobei die Infrarot-Lichtquelle (118) eingerichtet ist, von einer Windschutzscheibe (104) eines Fahrzeugs (100), das das Head-up-Display (102) umfasst, zu einem Augenraum (114) zu reflektieren, der einen erwarteten Sichtbereich eines Benutzers definiert, und die erfasste Reflexion Infrarot-Licht umfasst, das von dem Benutzer (106) und der Windschutzscheibe (104) reflektiert wird,wobei die Infrarot-Lichtquelle (118) an ein Gehäuse (302) des Head-up-Displays (102) gekoppelt ist und die Infrarot-Kamera (130) sich innerhalb des Gehäuses (302) des Head-up-Displays (102) befindet,wobei die Infrarot-Lichtquelle (118) als eine Vielzahl von Lichtquellen entlang eines äußeren Randes des Gehäuses (302) verteilt ist.wobei die Infrarot-Lichtquelle (118) mehrere Lichtquellen umfasst, die entlang einer Kante (120) einer Blendfalle (122) des Head-up-Display (102) verteilt sind,wobei die Blendfalle (122) transparentes Material enthält und schräge Flächen hat.

Description

  • EINLEITUNG
  • Die Offenbarung bezieht sich auf ein Verfolgungssystem mit einer Infrarot-Kamera.
  • Ein Head-Up-Display-System (HUD) kann ein für den Benutzer sichtbares Bild projizieren. Eine Eyebox (Augenraum) kann ein zwei- oder dreidimensionaler Bereich im Raum sein, in dem sich die Augen eines Benutzers befinden sollen, damit Bilder eines HUDs für den Benutzer sichtbar erscheinen. Komplexe Bilder, wie z.B. Augmented-Reality-Bilder, lassen sich unter Umständen nur schwer in den Augenraum projizieren, ohne dass der Benutzer eine Verzerrung wahrnehmen kann. Dementsprechend ist es wünschenswert, für ein HUD, das Verzerrungseffekte ausgleicht, eine Bildprojektion in den Augenraum zu ermöglichen.
  • US 2016/0316194 A1 beschreibt die selektive Beleuchtung eines Bereichs innerhalb eines Sichtfelds umfassend ein Beleuchtungssystem mit Lichtquellen, die zur selektiven Beleuchtung eines Ziels innerhalb eines Sichtfelds eines Bildgebungssystems eingesetzt werden. Das Beleuchtungssystem umfasst auch Optiken, die so positioniert werden können, dass sie das von einer Untergruppe der Lichtquellen erzeugte Licht so lenken, dass es einen Bereich innerhalb des Sichtfeldes beleuchtet.
  • DE 11 2018 006 420 T5 beschreibt ein Abbildungssystem für ein Fahrerüberwachungssystem. Das Abbildungssystem umfasst eine Lichtquelle zum Erzeugen eines Eingangslichtstrahls und Projizieren des Eingangslichtstrahls entlang eines Wegs in Richtung eines Fahrers eines Fahrzeugs.
  • DE 10 2014 216 053 A1 beschreibt ein Augenerfassungssystem für Fahrzeuge, umfassend eine Infrarot-Licht-quelle, wobei die Infrarot-Lichtquelle dazu eingerichtet ist, Infrarotlicht im Bereich einer Wellenlänge abzugeben, wobei die Wellenlänge einer wählbaren Vorgabe entspricht.
  • US 2018/0196509 A1 beschreibt ein am Kopf montiertes Display mit einem Augenverfolgungssystem, das die Augenverfolgungsinformationen des Benutzers auf der Grundlage der Kombination von strukturierten Lichtinformationen und Lichtzeitinformationen Lichtzeit-Informationen bestimmt.
  • US 2003/0142041 A1 beschreibt eine Vorrichtung zur Augenverfolgung, umfassend eine Beleuchtungseinrichtung; eine Reflexionseinrichtung, um Licht von der Beleuchtungseinrichtung auf eine Oberfläche einer Windschutzscheibe eines Fahrzeugs zu reflektieren, in dem die Windschutzscheibe installiert ist, so dass das Licht auf mindestens ein Auge einer Person in dem Fahrzeug reflektiert wird, und um ein Bild des mindestens einen Auges zu reflektieren.
  • BESCHREIBUNG
  • Aufgabe der Erfindung ist die Bildwiedergabe eines Head-up-Displays zu verbessern. Diese Aufgabe wird gelöst durch den Gegenstand gemäß Anspruch 1.
  • In einer beispielhaften Ausführungsform umfasst ein System eine Infrarot-Lichtquelle, eine Infrarot-Kamera und eine Steuerung. Die Steuerung umfasst eine Verarbeitungsschaltung, die so eingerichtet ist, dass sie eine Impulsbeleuchtung der Infrarot-Lichtquelle steuert, eine Bildsequenz von der Infrarot-Kamera einschließlich des Infrarot-Rauschens in Kombination mit einer erfassten Reflexion der Impulsbeleuchtung erfasst, das Infrarot-Rauschen aus der Bildsequenz basierend auf eines Vergleichs der erfassten Reflexion der Impulsbeleuchtung mit einem erwarteten Ergebnis der Impulsbeleuchtung filtert und ein interessantes Merkmal in der Bildsequenz nach der Filterung des Infrarot-Rauschens verfolgt.
  • Zusätzlich zu einer oder mehreren der hier beschriebenen Funktionen können die Infrarot-Lichtquelle, die Infrarot-Kamera und die Steuerung mit einem Head-up-Display verbunden werden.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Infrarot-Lichtquelle so eingerichtet werden, dass sie von einer Windschutzscheibe eines Fahrzeugs einschließlich des Head-up-Displays zu einem Augenraum reflektiert wird, der einen erwarteten Sichtbereich eines Benutzers definiert. Die erfasste Reflexion kann Infrarot-Licht umfassen, das vom Benutzer und von der Windschutzscheibe reflektiert wird.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Infrarot-Lichtquelle an ein Gehäuse des Head-up-Displays gekoppelt werden, und die Infrarot-Kamera befindet sich innerhalb des Gehäuses des Head-up-Displays.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Infrarot-Lichtquelle als eine Vielzahl von Lichtquellen entlang einer Außenkante des Gehäuses verteilt werden.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann ein optischer Raumfilter funktionsfähig an die Infrarot-Kamera gekoppelt werden, wobei der optische Raumfilter so eingerichtet ist, dass er Licht außerhalb des Augenraums blockiert.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann ein Bandpassfilter an die Infrarot-Kamera gekoppelt werden, wobei der Bandpassfilter so eingerichtet ist, dass er nicht-Infrarot-Wellenlängen filtert.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Filterung des Infrarot-Rauschens aus der Bildsequenz die Durchführung einer Analyse der Bildsequenz im Frequenzbereich umfassen, um das Infrarot-Rauschen aus der erfassten Reflexion der Impulsbeleuchtung zu demodulieren. Das erwartete Ergebnis der Impulsbeleuchtung kann als Demodulationsreferenzsignal verwendet werden.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Infrarot-Lichtquelle als s-polarisiertes Licht gesteuert werden.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das interessierende Merkmal die Augenposition eines Benutzers sein.
  • In einer anderen beispielhaften Ausführungsform umfasst eine Methode die Steuerung einer Impulsbeleuchtung einer Infrarot-Lichtquelle und die Aufnahme einer Bildsequenz von einer Infrarot-Kamera. Die Bildsequenz enthält Infrarot-Rauschen in Kombination mit einer eingefangenen Reflexion der Pulsbeleuchtung. Das Infrarot-Rauschen aus der Bildsequenz wird basierend auf einem Vergleich der erfassten Reflexion der Impulsbeleuchtung mit einem erwarteten Ergebnis der Impulsbeleuchtung gefiltert. Ein interessantes Merkmal in der Bildsequenz nach der Filterung des Infrarot-Rauschens wird verfolgt.
  • Zusätzlich zu einer oder mehreren der hier beschriebenen Funktionen können die Infrarot-Lichtquelle, die Infrarot-Kamera und die Steuerung mit einem Head-up-Display verbunden werden.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Infrarot-Lichtquelle so eingerichtet werden, dass sie von einer Windschutzscheibe eines Fahrzeugs einschließlich des Head-up-Displays zu einem Augenraum reflektiert wird, der einen erwarteten Sichtbereich eines Benutzers definiert. Die erfasste Reflexion kann Infrarot-Licht umfassen, das vom Benutzer und von der Windschutzscheibe reflektiert wird.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Infrarot-Lichtquelle an ein Gehäuse des Head-up-Displays gekoppelt werden, und die Infrarot-Kamera befindet sich innerhalb des Gehäuses des Head-up-Displays.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Infrarot-Lichtquelle als eine Vielzahl von Lichtquellen entlang einer Außenkante des Gehäuses verteilt werden.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Verfahren das Blockieren von Licht außerhalb des Augenraums durch einen optischen Raumfilter umfassen, der funktionell mit der Infrarot-Kamera gekoppelt ist.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das Verfahren die Filterung von Nicht-Infrarot-Wellenlängen durch einen Bandpassfilter umfassen, der funktionell mit der Infrarot-Kamera gekoppelt ist.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Filterung des Infrarot-Rauschens aus der Bildsequenz die Durchführung einer Analyse der Bildsequenz im Frequenzbereich umfassen, um das Infrarot-Rauschen aus der erfassten Reflexion der Impulsbeleuchtung zu demodulieren. Das erwartete Ergebnis der Impulsbeleuchtung kann als Demodulationsreferenzsignal verwendet werden.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann die Infrarot-Lichtquelle als s-polarisiertes Licht gesteuert werden.
  • Zusätzlich zu einem oder mehreren der hier beschriebenen Merkmale kann das interessierende Merkmal die Augenposition eines Benutzers sein.
  • Die oben genannten Merkmale und Vorteile sowie andere Merkmale und Vorteile der Offenbarung sind aus der folgenden detaillierten Beschreibung leicht ersichtlich, wenn sie in Verbindung mit den beigefügten Figuren aufgenommen werden.
  • Figurenliste
  • Weitere Merkmale, Vorteile und Details erscheinen nur beispielhaft in der folgenden Detailbeschreibung, wobei sich die Detailbeschreibung auf die Figuren bezieht, in denen sie enthalten sind:
    • 1 ist ein Blockschaltbild eines Nachführungssystems mit einer Infrarot-Kamera nach einer oder mehreren Ausführungsformen;
    • 2 ist ein Blockdiagramm eines Bilderfassungssystems nach einer oder mehreren Ausführungsformen;
    • 3 ist eine schematische Darstellung eines Gehäuses eines Head-up-Display-Systems nach einer oder mehreren Ausführungsformen;
    • 4 ist ein Intensitätsdiagramm der Impulsbeleuchtung einer Infrarot-Lichtquelle entsprechend einer oder mehrerer Ausführungsformen;
    • 5 ist ein Intensitätsdiagramm des Infrarot-Rauschens nach einer oder mehreren Ausführungsformen;
    • 6 ist ein Kamerareaktionsplot der Impulsbeleuchtung einer Infrarot-Lichtquelle mit Infrarot-Rauschen gemäß einer oder mehreren Ausführungsformen; und
    • 7 ist ein Prozessablauf eines Verfahrens zur Verfolgung eines interessierenden Merkmals mit einer Infrarot-Kamera entsprechend einer oder mehrerer Ausführungsformen.
  • DETAILLIERTE BESCHREIBUNG
  • Die folgende Beschreibung hat lediglich beispielhaften Charakter und soll die vorliegende Offenbarung, ihre Anwendung oder ihren Gebrauch nicht einschränken. In Hochleistungs-Head-up-Displays (HUDs), wie z.B. Augmented-Reality-HUDs, und anderen Systemen kann die Verfolgung der Augenposition eines Benutzers Maßnahmen zur Bildverbesserung ermöglichen. Beispielsweise kann eine dynamische Verzerrungskompensation angewendet werden, bei der mehrere mit einem HUD verknüpfte Stellen innerhalb eines Augenfelds eine einzigartige Verzerrungskompensationsdatei haben können, um eine unverzerrte Sicht auf die Bilder zu erhalten. Das Verfolgen eines Merkmals von Interesse, wie z.B. der Augenposition, kann zur Reduzierung der Bewegungsparallaxe (z.B. wenn ein Objekt von verschiedenen Positionen aus betrachtet anders erscheint) und zur Aufrechterhaltung der Augmented-Reality-Bildregistrierung verwendet werden. Wenn ein Benutzer beispielsweise seinen Kopf bewegt, kann ein entsprechendes virtuelles Bild mehr als reale Bildobjekte bewegen, was die Illusion der erweiterten Realität, in der virtuelle Bilder und reale Bildobjekte miteinander verschmelzen, zerstören kann. Die Verfolgung der Augenposition kann eine dynamische Bildfusion ermöglichen. Die Augenpositionsverfolgung kann auch die Auswahl einer geeigneten Bildperspektive unterstützen, wobei die dreidimensionale Perspektive eines Bildes so verändert werden kann, dass die Illusion, ein virtuelles Bild sei real, erhalten bleibt, wenn sich der Benutzer bewegt. Ausführungsformen der Systeme und Verfahren, wie sie hier weiter ausgeführt werden, beziehen sich auf die Bildverarbeitung und die Verfolgung eines Merkmals von Interesse mit einer Infrarot-Kamera, wie z.B. die Verfolgung des Augenorts für ein HUD eines Fahrzeugs.
  • Entsprechend einer beispielhaften Ausführungsform ist 1 ein Blockdiagramm eines Teils eines Fahrzeugs 100 mit einem HUD 102. Bei dem Fahrzeug 100 kann es sich um ein Automobil, einen Lastwagen, ein Wasserfahrzeug, ein Flugzeug oder jede andere in der Kunst bekannte Art von Fahrzeug mit einer Windschutzscheibe 104 handeln. Das HUD 102 kann sich in einer versenkten Position befinden, so dass es für einen Benutzer 106 nicht direkt sichtbar ist. Ein Bildaufnahmesystem 108 kann in einem Gehäuse (z.B. Gehäuse 302 von 3) des HUD 102 zusammen mit einer Bilderzeugungseinheit 110 und mindestens einem Spiegel 112 untergebracht werden. Die Bilderzeugungseinheit 110 kann eine Bildsequenz auf den Spiegel 112 projizieren, der von der Windschutzscheibe 104 reflektiert wird und für den Benutzer 106 an der Augenklappe 114 sichtbar ist. Um die Position eines Merkmals von Interesse 116 des Benutzers 106 zu verfolgen, wie z.B. die Position des Auges, arbeitet das Bilderfassungssystem 108 in Verbindung mit einer Infrarot-Lichtquelle 118, die mehrere Lichtquellen umfassen kann, die entlang einer Kante 120 einer Blendfalle 122 des HUD 102 verteilt sind.
  • Die Blendfalle 122 kann transparentes Material enthalten, damit Licht von außerhalb des HUD 102 auf das Bildaufnahmesystem 108 fällt. Die Blendfalle 122 kann auch schräge Flächen haben, um die Blendung durch verschiedene Lichtquellen zu reduzieren. Die Infrarot-Lichtquelle 118 kann sich außerhalb der Blendfalle 122 befinden, wie z.B. in 3 dargestellt, wobei die Infrarot-Lichtquelle 118 als mehrere Lichtquellen entlang einer oder mehrerer Außenkanten 304 (z.B. Kante 120) eines Gehäuses 302 des HUD 102 verteilt ist. Andere Standorte oder Verteilungsmuster der Infrarot-Lichtquelle 118 werden in Betracht gezogen.
  • Unter Bezugnahme auf 1 kann die Infrarot-Lichtquelle 118 eine Vielzahl von Infrarot-Lichtstrahlen 123 aussenden, die von der Windschutzscheibe 104 in Richtung des Augenraums 114 reflektiert werden. Die Infrarot-Lichtquelle 118 kann eine optische Komponente zur Unterstützung der Infrarot-Strahlformung enthalten, um sich an die Größe des Augenraums 114 anzupassen. Die Infrarot-Lichtquelle 118 kann mit einem oberflächenemittierenden Laser mit vertikalem Hohlraum, einem Diodenlaser, einer Leuchtdiode oder einer anderen in der Technik bekannten Technologie Infrarot-Licht aussenden. Die Infrarot-Lichtstrahlen 123 können von einer Oberfläche 124 (z.B. einem Gesicht) des Benutzers 106 und dem interessierenden Merkmal 116 des Benutzers 106 reflektiert werden. Eine Reflexion 126 von Infrarot-Lichtstrahlen des Benutzers 106 kann auf die Windschutzscheibe 104 zurückprojiziert und weiter zum Bilderfassungssystem 108 reflektiert werden. Der Einfallwinkel des Infrarot-Strahls auf die Windschutzscheibe 104 kann so gestaltet werden, dass die Reflexionsfähigkeit maximiert wird. Das Bildaufnahmesystem 108 kann auch andere Strahlungsquellen 125 erkennen, wie z.B. Sonnenlicht, das durch die Windschutzscheibe 104 fällt und als Infrarot-Rauschen erscheinen kann. Um die Bildqualität zu verbessern, kann das Bilderfassungssystem 108 einen optischen Raumfilter 128 enthalten, der mit einer Infrarot-Kamera 130 gekoppelt ist, wobei der optische Raumfilter 128 so eingerichtet ist, dass er Licht von außerhalb des Augenraums 114 blockiert. Der optische Raumfilter 128 kann eine erste Linse 132, ein Filter 134 und eine zweite Linse 136 enthalten. Der optische Raumfilter 128 kann so eingestellt werden, dass er auf den Augenraum 114 fokussiert und Strahlung von anderen Quellen außerhalb des Augenraums 114 blockiert. Die von der Infrarot-Lichtquelle 118 bereitgestellte Beleuchtung kann s-polarisiertes Licht sein, und die Infrarot-Kamera 130 kann so eingerichtet werden, dass sie alle Polarisationen erfasst.
  • Das Bildaufnahmesystem 108 kann auch einen Bandpassfilter 138 enthalten, der mit der Infrarot-Kamera 130 gekoppelt ist, wobei der Bandpassfilter 138 so eingerichtet ist, dass er nicht-Infrarot-Wellenlängen filtert. Der Bandpassfilter 138 kann beispielsweise so eingerichtet werden, dass Wellenlängen bei oder im Wesentlichen nahe 905 nm durch den Bandpassfilter 138 hindurchgehen können. Der optische Raumfilter 128 und der Bandpassfilter 138 können so angeordnet werden, dass das am Bilderfassungssystem 108 empfangene Licht zuerst den Bandpassfilter 138 und dann den optischen Raumfilter 128 durchläuft, bevor es die Infrarot-Kamera 130 erreicht. Alternativ kann die Anordnung des optischen Raumfilters 128 und des Bandpassfilters 138 umgekehrt werden, so dass das Licht zuerst das optische Raumfilter 128 und dann den Bandpassfilter 138 durchläuft, bevor es die Infrarot-kamera 130 erreicht. Der optische Raumfilter 128 und der Bandpassfilter 138 bieten gemeinsam oder einzeln einen optischen Ansatz zur Rauschunterdrückung, während eine weitere Rauschunterdrückung durch digitale Bildverarbeitung durchgeführt werden kann, wie in den 2, 3, 4, 5, 6 und 7 näher beschrieben.
  • 2 ist ein Blockdiagramm eines Systems 200 einschließlich des Bilderfassungssystems 108 nach einer oder mehreren Ausführungsformen. Im Beispiel von 2 ist der Bandpassfilter 138 nicht dargestellt, da der Bandpassfilter 138 in einigen Ausführungsformen weggelassen werden kann. Licht 202, das am optischen Raumfilter 128 empfangen wird, kann eine Kombination aus der Reflexion 126 von Infrarot-Lichtstrahlen vom Benutzer 106, Infrarot-Rauschen von Strahlungsquellen 125 und anderen Nicht-Infrarot-Wellenlängen enthalten, wenn der Bandpassfilter 138 weggelassen wird. Das Licht 202 kann durch die erste Linse 132, den Filter 134 und eine zweite Linse 136 hindurchgehen, so dass räumlich gefiltertes Licht 204 die Infrarot-kamera 130 erreicht. Eine Steuerung 210 kann eine Bildsequenz von der Infrarot-Kamera 130 für die weitere Bildverarbeitung aufnehmen. Die Steuerung 210 kann eine Verarbeitungsschaltung 212 enthalten, die einen anwendungsspezifischen integrierten Schaltkreis (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder gruppiert) und einen Speicher 214, der ein oder mehrere Software- oder Firmware-Programme ausführt, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten, die die beschriebene Funktionalität bereitstellen, umfassen kann. Eine Eingangs-/Ausgangsschnittstelle 216 kann Schaltungen zur Unterstützung der Ansteuerung verschiedener Ausgänge enthalten, wie z.B. die Infrarot-Lichtquelle 118 von 1, die Bilderzeugungseinheit 110 von 1 und/oder andere Geräte (nicht abgebildet). Die Ein-/Ausgabeschnittstelle 216 kann auch mit verschiedenen Fahrzeugsystemen kommunizieren und unterstützt den Empfang von Eingaben der Infrarot-kamera 130 und/oder anderer Geräte (nicht abgebildet).
  • Die Steuerung 210 kann verschiedene Bildverarbeitungstechniken verwenden, um die im Speicher 214 erfassten Bilder zu verbessern, um das Infrarot-Rauschen zu filtern und die Genauigkeit der Algorithmen zur Standortverfolgung zu verbessern, die den Standort eines Merkmals von Interesse 116 des Benutzers 106 verfolgen. Die Augenposition kann mit bekannten Verarbeitungstechniken bestimmt werden. Zum Beispiel führt infrarotes oder nahes Infrarot-Licht, das auf die Pupille des Auges gerichtet ist, zu sichtbaren Reflexionen in der Hornhaut des Auges. Die Augenreflexe zwischen Hornhaut und Pupille bilden einen Vektor, der zur Bestimmung der Blickrichtung verfolgt werden kann. Die Augenpositionserkennung kann maschinelles Lernen oder andere Ansätze verwenden, um Gesichtsmerkmale des Benutzers 106 von 1 zu identifizieren, einschließlich des Merkmals von Interesse 116 von 1.
  • Ein Beispiel für Bildverarbeitungstechniken, die durch das Bilderfassungssystem 108 implementiert werden können, ist ein Lock-in-Verstärker zur Rauschunterdrückung. Das Aufblitzen des Augenraums 114 von 1 durch Reflexion an der Windschutzscheibe 104 von 1 kann z.B. durch impulsförmige Beleuchtung der Infrarot-Lichtquelle 118 gesteuert werden, wie sie von der Steuerung 210 angesteuert wird. Die Oberfläche 124 (z.B. Gesicht) des Benutzers 106 innerhalb des Augenraums 114 wird zu einer sekundären diffusen Infrarot-Lichtquelle, die von der Windschutzscheibe 104 als Infrarot-Bild reflektiert wird, das weiter optisch gefiltert und vom Bilderfassungssystem 108 erfasst wird. Die 4, 5 und 6 zeigen die Beispielplots 400, 500, 600, wobei Plot 400 eine Intensitätskurve der Impulsbeleuchtung der Infrarot-Lichtquelle 118 in Bezug auf die Zeit ist, Plot 500 eine Intensitätskurve des Infrarot-Rauschens (z.B. von Strahlungsquellen 125 von 1) in Bezug auf die Zeit und Plot 600 eine Kamerareaktionskurve der Impulsbeleuchtung einer Infrarot-Lichtquelle mit Infrarot-Rauschen in Bezug auf die Zeit ist. Die Impulsbeleuchtung der Infrarot-Lichtquelle 118 liefert ein Referenzsignal, das in der von der Infrarot-Kamera 130 aufgenommenen Bildsequenz erkannt werden kann und möglicherweise verschoben erscheint, da das zugrunde liegende Infrarot-Rauschen als „DC“-Versatz wirken kann (z.B. Plot 600). Mit Hilfe der Frequenzbereichsanalyse kann das Infrarot-Rauschen herausgefiltert werden. Die Impulsbeleuchtung kann beispielsweise als eine Trägerfrequenz erscheinen, die das Infrarot-Rauschen mit einer vorbestimmten Frequenz moduliert. Ein erwartetes Ergebnis der Pulsbeleuchtung kann mit der erfassten Reflexion der Pulsbeleuchtung bei der Frequenz der Pulsbeleuchtung verglichen werden, und die Differenz kann als Rauschpegel des herauszufilternden Infrarot-Rauschens quantifiziert werden. Darüber hinaus kann die Bildanalyse zur Identifizierung des interessierenden Merkmals 116 auf Bildfelder isoliert werden, in denen aufgrund der Impulsbeleuchtung eine erhöhte Infrarot-Intensität vorliegt. Es können auch andere Bildverbesserungen durchgeführt werden.
  • 7 ist ein Prozessablauf eines Verfahrens 700 zur Verfolgung eines Merkmals von Interesse 116 unter Verwendung eines Bilderfassungssystems 108 mit einer Infrarot-Kamera 130 entsprechend einer oder mehrerer Ausführungsformen. Das Verfahren 700 wird in Bezug auf die 1-7 beschrieben. Wie in 1 dargestellt, kann sich das Bilderfassungssystem 108 in einem Fahrzeug 100 befinden. Im Block 702 kann die Steuerung 210 eine Impulsbeleuchtung der Infrarot-Lichtquelle 118 im Fahrzeug 100 steuern. Im Block 704 kann die Steuerung 210 eine Bildsequenz von der Infrarot-kamera 130 aufnehmen, wobei die Bildsequenz Infrarot-Rauschen kombiniert mit einer eingefangenen Reflexion der Impulsbeleuchtung enthält. Die Infrarot-Lichtquelle 118 kann so eingerichtet werden, dass sie von einer Windschutzscheibe 104 des Fahrzeugs 100 einschließlich HUD 102 zu einem Augenraum 114 reflektiert wird, die einen erwarteten Sichtbereich eines Benutzers 106 definiert, und die erfasste Reflexion kann Infrarot-Licht umfassen, das vom Benutzer 106 und der Windschutzscheibe 104 reflektiert wird.
  • Im Block 706 kann die Steuerung 210 das Infrarot-Rauschen aus der Bildsequenz filtern, basierend auf einem Vergleich der erfassten Reflexion der Impulsbeleuchtung mit einem erwarteten Ergebnis der Impulsbeleuchtung. Die Filterung kann auch eine optische Filterung umfassen, wie z.B. die Einbeziehung eines optischen Raumfilters 128, der funktionell mit der Infrarot-Kamera 130 gekoppelt ist, wobei der optische Raumfilter 128 so eingerichtet ist, dass er Licht außerhalb des Augenraums 114 blockiert. Ein Bandpassfilter 138 kann funktionsfähig mit der Infrarot-Kamera 130 gekoppelt werden, wobei der Bandpassfilter 138 so eingerichtet ist, dass er nicht-Infrarot-Wellenlängen filtert. Die Filterung des Infrarot-Rauschens aus der Bildsequenz kann die Durchführung einer Analyse im Frequenzbereich der Bildsequenz umfassen, um das Infrarot-Rauschen aus der erfassten Reflexion der Pulsbeleuchtung zu demodulieren. Das erwartete Ergebnis der Pulsbeleuchtung kann als Demodulationsreferenzsignal verwendet werden.
  • Im Block 708 kann die Steuerung 210 nach der Filterung des Infrarot-Rauschens ein interessantes Merkmal 116 in der Bildsequenz verfolgen. Die Informationen zur Position der Augenverfolgung können zur Verfeinerung der Anzeigeparameter der Bilderzeugungseinheit 110 bereitgestellt werden, um die Bildausrichtung an der Augenposition des Benutzers 106 zu verbessern. Anpassungen der Bildwiedergabe durch die Bilderzeugungseinheit 110 können in Echtzeit vorgenommen werden, wenn Änderungen in der Augenposition des Benutzers 106 erkannt werden.
  • Während die obige Offenbarung mit Bezug auf beispielhafte Ausführungsformen beschrieben wurde, wird es von den Fachleuten verstanden werden, dass verschiedene Änderungen vorgenommen werden können und Elemente davon durch Äquivalente ersetzt werden können, ohne dass der Anwendungsbereich verlassen wird. Darüber hinaus können viele Änderungen vorgenommen werden, um eine bestimmte Situation oder ein bestimmtes Material an die Lehren der Offenbarung anzupassen, ohne von deren wesentlichem Umfang abzuweichen. Es ist daher beabsichtigt, dass die vorliegende Offenbarung nicht auf die einzelnen offengelegten Ausführungsformen beschränkt ist, sondern alle Ausführungsformen umfasst, die in den Geltungsbereich dieser Ausführungsformen fallen.

Claims (2)

  1. Ein System (200), umfassend: eine Infrarot-Lichtquelle (118); eine Infrarot-Kamera (130); und eine Steuerung (210), die eine Verarbeitungsschaltung (212) umfasst, die eingerichtet ist, eine Impulsbeleuchtung der Infrarot-Lichtquelle (118) zu steuern, eine Bildsequenz von der Infrarot-Kamera (130) zu erfassen, die Infrarot-Rauschen kombiniert mit einer erfassten Reflexion der Impulsbeleuchtung umfasst, das Infrarot-Rauschen aus der Bildsequenz basierend auf einem Vergleich der erfassten Reflexion der Impulsbeleuchtung mit einem erwarteten Ergebnis der Impulsbeleuchtung zu filtern und ein Merkmal von Interesse in der Bildsequenz nach dem Filtern des Infrarot-Rauschens zu verfolgen, wobei die Infrarot-Lichtquelle (118), die Infrarot-Kamera (130) und die Steuerung (210) mit einem Head-up-Display (102) verbunden sind, wobei die Infrarot-Lichtquelle (118) eingerichtet ist, von einer Windschutzscheibe (104) eines Fahrzeugs (100), das das Head-up-Display (102) umfasst, zu einem Augenraum (114) zu reflektieren, der einen erwarteten Sichtbereich eines Benutzers definiert, und die erfasste Reflexion Infrarot-Licht umfasst, das von dem Benutzer (106) und der Windschutzscheibe (104) reflektiert wird, wobei die Infrarot-Lichtquelle (118) an ein Gehäuse (302) des Head-up-Displays (102) gekoppelt ist und die Infrarot-Kamera (130) sich innerhalb des Gehäuses (302) des Head-up-Displays (102) befindet, wobei die Infrarot-Lichtquelle (118) als eine Vielzahl von Lichtquellen entlang eines äußeren Randes des Gehäuses (302) verteilt ist. wobei die Infrarot-Lichtquelle (118) mehrere Lichtquellen umfasst, die entlang einer Kante (120) einer Blendfalle (122) des Head-up-Display (102) verteilt sind, wobei die Blendfalle (122) transparentes Material enthält und schräge Flächen hat.
  2. Das System (200) nach Anspruch 1, ferner umfassend: einen optischen Raumfilter (128), der betriebsfähig mit der Infrarot-Kamera (130) gekoppelt ist, wobei der optische Raumfilter (128) eingerichtet ist, Licht außerhalb des Augenraums (114) zu blockieren.
DE102020105652.4A 2019-04-02 2020-03-03 Verfolgungssystem mit infrarot-kamera Active DE102020105652B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/373,056 US10747314B1 (en) 2019-04-02 2019-04-02 Tracking system with infrared camera
US16/373,056 2019-04-02

Publications (2)

Publication Number Publication Date
DE102020105652A1 DE102020105652A1 (de) 2020-10-08
DE102020105652B4 true DE102020105652B4 (de) 2023-06-15

Family

ID=72046091

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020105652.4A Active DE102020105652B4 (de) 2019-04-02 2020-03-03 Verfolgungssystem mit infrarot-kamera

Country Status (2)

Country Link
US (1) US10747314B1 (de)
DE (1) DE102020105652B4 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11137608B2 (en) * 2019-09-25 2021-10-05 Electronics And Telecommunications Research Institute Slim immersive display device, slim visualization device, and user eye-tracking device
US11454813B2 (en) 2019-11-07 2022-09-27 GM Global Technology Operations LLC Holographic display systems with polarization correction and distortion reduction providing enhanced image quality
US11016308B1 (en) 2019-12-11 2021-05-25 GM Global Technology Operations LLC Nanoparticle doped liquid crystal device for laser speckle reduction
US11473874B2 (en) 2020-02-19 2022-10-18 Maztech Industries, LLC Weapon system with multi-function single-view scope
US11480789B2 (en) 2020-08-27 2022-10-25 GM Global Technology Operations LLC Speckle-reduced direct-retina holographic projector including multiple spatial light modulators
JP7492670B2 (ja) 2020-09-30 2024-05-30 日本精機株式会社 車両用表示装置
US11833901B2 (en) 2020-10-12 2023-12-05 GM Global Technology Operations LLC System and method for adjusting a location and distortion of an image projected onto a windshield of a vehicle by a head-up display
US11506892B1 (en) 2021-05-03 2022-11-22 GM Global Technology Operations LLC Holographic display system for a motor vehicle
US11762195B2 (en) 2021-05-06 2023-09-19 GM Global Technology Operations LLC Holographic display system with conjugate image removal for a motor vehicle
US11880036B2 (en) 2021-07-19 2024-01-23 GM Global Technology Operations LLC Control of ambient light reflected from pupil replicator
WO2023112908A1 (ja) * 2021-12-14 2023-06-22 日本精機株式会社 表示装置
US11630302B1 (en) 2022-04-06 2023-04-18 GM Global Technology Operations LLC Driving guidance system for a motor vehicle having an augmented reality head up display
US11915395B2 (en) 2022-07-20 2024-02-27 GM Global Technology Operations LLC Holographic display system for a motor vehicle with real-time reduction of graphics speckle noise
US11654771B1 (en) 2022-07-20 2023-05-23 GM Global Technology Operations LLC Multi-view display device for a co-pilot application of a motor vehicle
CN115311470B (zh) * 2022-09-28 2023-01-24 北京万龙精益科技有限公司 自适应块匹配滤波的红外小目标实时检测与跟踪方法及其系统、装置和计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030142041A1 (en) 2002-01-30 2003-07-31 Delphi Technologies, Inc. Eye tracking/HUD system
DE102014216053A1 (de) 2014-08-13 2016-02-18 Bayerische Motoren Werke Aktiengesellschaft Anpassung der Beleuchtungs-Wellenlänge bei der Augenerfassung
US20160316194A1 (en) 2012-06-18 2016-10-27 Microsoft Technology Licensing, Llc Selective Illumination of a Region within a Field of View
US20180196509A1 (en) 2017-01-06 2018-07-12 Oculus Vr, Llc Eye tracking architecture for common structured light and time-of-flight framework
DE112018006420T5 (de) 2017-12-18 2020-09-17 Seeing Machines Limited Hochleistungsabbildungssystem unter Verwendung einer dielektrischen Metaoberfläche

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10361018C9 (de) * 2003-12-23 2021-03-04 QUISS Qualitäts-Inspektionssysteme und Service GmbH Verfahren zum Erkennen einer auf einem Substrat aufzubringenden Struktur mit mehreren Kameras sowie eine Vorrichtung hierfür
GB0802401D0 (en) * 2008-02-08 2008-03-12 Selex Sensors & Airborne Sys Device for 3D imaging
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
WO2014014838A2 (en) * 2012-07-15 2014-01-23 2R1Y Interactive illumination for gesture and/or object recognition
DE102013227101B3 (de) * 2013-12-23 2015-05-21 Trimble Jena Gmbh Optisches System zur Nachverfolgung eines Ziels
IL236114A (en) * 2014-12-07 2016-04-21 Yoav Grauer Improved object recognition in the reimbursement-based imaging unit
WO2016168378A1 (en) * 2015-04-13 2016-10-20 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
US10152798B2 (en) * 2017-04-10 2018-12-11 Wisconsin Alumni Research Foundation Systems, methods and, media for determining object motion in three dimensions using speckle images
US10401872B2 (en) * 2017-05-23 2019-09-03 Gopro, Inc. Method and system for collision avoidance
CN114603559A (zh) * 2019-01-04 2022-06-10 上海阿科伯特机器人有限公司 移动机器人的控制方法、装置、移动机器人及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030142041A1 (en) 2002-01-30 2003-07-31 Delphi Technologies, Inc. Eye tracking/HUD system
US20160316194A1 (en) 2012-06-18 2016-10-27 Microsoft Technology Licensing, Llc Selective Illumination of a Region within a Field of View
DE102014216053A1 (de) 2014-08-13 2016-02-18 Bayerische Motoren Werke Aktiengesellschaft Anpassung der Beleuchtungs-Wellenlänge bei der Augenerfassung
US20180196509A1 (en) 2017-01-06 2018-07-12 Oculus Vr, Llc Eye tracking architecture for common structured light and time-of-flight framework
DE112018006420T5 (de) 2017-12-18 2020-09-17 Seeing Machines Limited Hochleistungsabbildungssystem unter Verwendung einer dielektrischen Metaoberfläche

Also Published As

Publication number Publication date
US10747314B1 (en) 2020-08-18
DE102020105652A1 (de) 2020-10-08

Similar Documents

Publication Publication Date Title
DE102020105652B4 (de) Verfolgungssystem mit infrarot-kamera
DE69906139T2 (de) Vorrichtung zum verfolgen von augenbewegungen
EP1405122B1 (de) Vorrichtung zur bestimmung der orientierung eines auges
EP3475755B1 (de) Anzeigevorrichtung zur einblendung eines virtuellen bildes in das blickfeld eines benutzers
DE102016123568A1 (de) Holographische wellenleiter(hud)-seitenblickanzeige
DE102010024407B4 (de) Verfahren und Vorrichtung zur Bestimmung der Augenposition
DE112016005395T5 (de) Prismenbasierte Augenverfolgung
EP3844537A1 (de) Verfahren zum ermitteln einer blickrichtung eines auges
DE102020002994B4 (de) Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
DE102016123566A1 (de) System von erweiterter realität und verarbeitung von bildern von verdeckten gegenständen
WO1998005992A2 (de) Vorrichtung zur aufnahme des netzhautreflexbildes und überlagerung von zusatzbildern im auge
EP3411747A1 (de) Projektionsvorrichtung für eine datenbrille, verfahren zum darstellen von bildinformationen mittels einer projektionsvorrichtung und steuergerät
DE102016226294A1 (de) Verfahren und Vorrichtung zur Bestimmung der Brechkraft einer Linse in einem Auge und Verwendung
EP3425560B1 (de) Vorrichtung und verfahren zur erfassung von biometrischen merkmalen eines gesichts einer person
DE102015007485A1 (de) Verfahren und Vorrichtung zur Adaption von Bildinhalten eines Head-up-Displays auf einer Windschutzscheibe eines Fahrzeuges
DE102012200867A1 (de) Verfahren und Steuergerät zum Nachführen eines Projektionsstrahls eines Blickfeldanzeigegeräts
DE102010041344A1 (de) Anzeigevorrichtung
DE102016205309A1 (de) Beleuchtungsvorrichtung zum Beleuchten eines Fahrers eines Fahrzeugs mit Infrarotlicht, Fahrerbeobachtungssystem und Head-up-Display-Einheit
EP1840627B1 (de) Vorrichtung und Verfahren zur Bestimmung der Orientierung eines Auges
DE102020206452A1 (de) Projektions- und Okulografievorrichtung für eine Datenbrille und Verfahren zum Betreiben einer Projektions- und Okulografievorrichtung für eine Datenbrille
EP1056611A1 (de) Verfahren zum steuern oder bedienen von systemen durch bildinformationen und verfahren zur erfassung von bildinformationen
WO2020120297A1 (de) Verfahren zur herstellung eines holografisch-optischen bauelements (hoe), welches zur projektion in einem projektionssystem vorgesehen ist, ein solches holografisch-optisches bauelement, projektionsvorrichtung, brillenglas für eine datenbrille sowie eine solche datenbrille
DE10125971A1 (de) Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben
EP2990015B1 (de) Ophthalmologisches Laserbehandlungssystem
EP3296688A1 (de) Verfahren und vorrichtung zur stereo-photogrammetrischen vermessung von unterschiedlichen objekten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R123 Application deemed withdrawn due to non-payment of filing fee
R409 Internal rectification of the legal status completed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final