DE112018006420T5 - Hochleistungsabbildungssystem unter Verwendung einer dielektrischen Metaoberfläche - Google Patents

Hochleistungsabbildungssystem unter Verwendung einer dielektrischen Metaoberfläche Download PDF

Info

Publication number
DE112018006420T5
DE112018006420T5 DE112018006420.4T DE112018006420T DE112018006420T5 DE 112018006420 T5 DE112018006420 T5 DE 112018006420T5 DE 112018006420 T DE112018006420 T DE 112018006420T DE 112018006420 T5 DE112018006420 T5 DE 112018006420T5
Authority
DE
Germany
Prior art keywords
light beam
imaging system
light
scene
polarization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018006420.4T
Other languages
English (en)
Inventor
John Noble
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seeing Machines Ltd
Original Assignee
Seeing Machines Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2017905047A external-priority patent/AU2017905047A0/en
Application filed by Seeing Machines Ltd filed Critical Seeing Machines Ltd
Publication of DE112018006420T5 publication Critical patent/DE112018006420T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/015Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on semiconductor elements with at least one potential jump barrier, e.g. PN, PIN junction
    • G02F1/017Structures with periodic or quasi periodic potential variation, e.g. superlattices, quantum wells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/283Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising used for beam splitting or combining
    • G02B27/285Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising used for beam splitting or combining comprising arrays of elements, e.g. microprisms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/286Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising for controlling or changing the state of polarisation, e.g. transforming one polarisation state into another
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/288Filters employing polarising elements, e.g. Lyot or Solc filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • G02B5/3008Polarising elements comprising dielectric particles, e.g. birefringent crystals embedded in a matrix
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • G02B5/3083Birefringent or phase retarding elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/002Optical elements characterised by the material of which they are made; Optical coatings for optical elements made of materials engineered to provide properties not available in nature, e.g. metamaterials
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B1/00Optical elements characterised by the material of which they are made; Optical coatings for optical elements
    • G02B1/08Optical elements characterised by the material of which they are made; Optical coatings for optical elements made of polarising materials
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Abstract

Hier wird ein Abbildungssystem (200) für ein Fahrerüberwachungssystem (100) beschrieben. Das Abbildungssystem (200) umfasst eine Lichtquelle (108) zum Erzeugen eines Eingangslichtstrahls (102) und Projizieren des Eingangslichtstrahls (202) entlang eines Wegs in Richtung eines Fahrers (102) eines Fahrzeugs. Das System (200) umfasst auch eine dielektrische Metaoberfläche (201), die innerhalb des Wegs des Eingangslichtstrahls (202) positioniert ist. Die Metaoberfläche (201) hat eine zweidimensionale Anordnung von Oberflächenelementen, die derart konfiguriert sind, dass sie dem Eingangslichtstrahl (202) vorgegebene Phasen-, Polarisations- und/oder Intensitätsänderungen auferlegen, um einen Ausgangslichtstrahl (204) zur Beleuchtung des Fahrers (102) erzeugen. Das System (200) umfasst ferner einen Bildsensor (106), der konfiguriert ist, um reflektiertes Licht (208), das Licht von dem Ausgangslichtstrahl (204) ist, das von dem Fahrer reflektiert wird, abzubilden.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft Beleuchtungs- und Abbildungssysteme. Während einige Ausführungsformen hier unter besonderer Bezugnahme auf die Anwendung eines Fahrerüberwachungssystems zum Abbilden eines Fahrers eines Fahrzeugs beschrieben werden, wird zu schätzen gewusst, dass die Erfindung nicht auf ein derartiges Anwendungsfeld beschränkt ist und in größerem Zusammenhang anwendbar ist. Beispielhaft haben Ausführungsformen der Erfindung Anwendungen in Beleuchtungs- und Abbildungssystemen für Mobiltelefone, Webkameras und LIDAR-Systemen.
  • Hintergrund
  • Jede Diskussion der Hintergrundtechnik in dieser Spezifikation sollte in keiner Weise als ein Eingeständnis betrachtet werden, dass derartige Technik weithin bekannt ist oder einen Teil des üblichen allgemeinen Kenntnisstands auf dem Gebiet bildet.
  • Um Ablenkungen für Fahrer zu verringern, beruhen
  • Fahrerüberwachungssysteme typischerweise auf der Beleuchtung und Abbildung eines Fahrers außerhalb des sichtbaren Bereichs und häufig in dem nahen Infrarot- (NIR-) Wellenlängenbereich. NIR-Beleuchtungs- und Abbildungsverfahren werden auch in anderen Systemen, wie etwa Mobiltelefonen, Webkameras und LIDAR-Systemen, verwendet. NIR-Bildsensoren sind jedoch weithin unempfindlich für Wellenlängen außerhalb eines schmalen Betriebsbereichs. Als Solcher ist der Bildsensor nicht fähig, Licht einzufangen, das nur ein wenig außerhalb des schmalen Betriebsbereichs ist. Somit ist es bei NIR-Sensoren wichtig, die Lichtmenge, die in das Sichtfeld des Bildsensors projiziert wird, zu maximieren, um die gesamte Bildintensität zu erhöhen. Unglücklicherweise kann in vielen gegenwärtigen Abbildungssystemen bis zu 50% des Lichts außerhalb des Sichtfelds der Bildsensoren einfallen und wird folglich verschwendet. Diese Verschwendung führt zu einer verringerten Gesamtbildqualität. In dem Fall der Gesichtsbildverfolgung in Fahrerüberwachungssystemen kann die verringerte Bildqualität zu vergrößerten Verfolgungsfehlern und Unsicherheit führen.
  • Fahrerüberwachungssysteme erfordern Tiefeninformationen, um Gesichtsmerkmale in drei Dimensionen genau zu verfolgen und die Kopfhaltung und Blickrichtung zu schätzen. Herkömmlicherweise werden diese Tiefeninformationen gewonnen, indem der Fahrer mit einem Stereokamerasystem abgebildet wird, das genau auf die Szene geeicht ist, oder unter Verwendung eines dreidimensionalen Abbildungssensors. Diese Systeme erfordern jedoch teure Hardware. Ein alternatives Verfahren ist, dem projizierten Licht eine bekannte Struktur aufzuerlegen und Tiefeninformationen aus der Verformung dieser Struktur nach der Reflexion von der Szene Tiefeninformationen zu extrapolieren. Jedoch erfordern gegenwärtige Verfahren zum Implementieren von strukturiertem Licht das Hinzufügen eines optischen Beugungselements in der optischen Strecke. Dies trägt zur Größe und den Kosten des Systems und zu dem gesamten optischen Verlust bei, den Licht erfährt, indem es entlang der optischen Strecke verläuft.
  • Fahrerüberwachungssysteme sind dafür bekannt, dass sie unter Problemen leiden, die mit Spiegelung zusammenhängen. Insbesondere in Systemen, die eine aktive Lichtbeleuchtung verwenden, kann die Spiegelung dieses Lichts durch die Kamera aufgenommen werden, wodurch das Signal-Rausch-Verhältnis der Bilder verringert wird. Wenn beispielsweise eine beleuchtete Testperson eine Brille mit Korrekturlinse oder eine Sonnenbrille trägt, kann die Geometrie (z.B. konvexe Form) der Brille das Licht reflektieren, welches das Bild beleuchtet, das von der Abbildungskamera erlangt wird. Diese Reflexion der Beleuchtungsquelle wird im Allgemeinen als eine Spiegelung auf der Brille der Testperson gesehen. Die sich ergebende Spiegelung kann in den interessierenden Bereichen nahe dem/der Auge(n) der Testperson auftreten, wodurch die Fähigkeit, die abgebildeten Gesichtscharakteristiken der Augen, des Gesichts und des Kopfs zu erkennen, behindert wird. Typische Spiegelungsverringerungsverfahren umfassen das Pulsen verschiedener Lichtquellen und das Durchführen einer Nachverarbeitung für die Bilder, um die Spiegelung zu verringern. Dies trägt notwendigerweise zu der Rechenkomplexität des Gesamtsystems bei.
  • Der Erfinder hat einen Wunsch nach Verbesserungen der vorstehenden Bereiche von Fahrerüberwachungssystemen und anderen Beleuchtungs- und Abbildungssystemen ausgemacht.
  • Zusammenfassung der Erfindung
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Abbildungssystem für ein Fahrerüberwachungssystem bereitgestellt, wobei das Abbildungssystem umfasst:
    • eine Lichtquelle zum Erzeugen eines Eingangslichtstrahls und Projizieren des Eingangslichtstrahls entlang eines Wegs in Richtung eines Fahrers eines Fahrzeugs;
    • eine dielektrische Metaoberfläche, die innerhalb des Wegs des Eingangslichtstrahls positioniert ist, wobei die Metaoberfläche eine zweidimensionale Anordnung von Oberflächenelementen hat, die konfiguriert sind, um dem Eingangslichtstrahl vorgegebene Phasen-, Polarisations- und/oder Intensitätsänderungen aufzuerlegen, um einen Ausgangslichtstrahl zur Beleuchtung des Fahrers zu erzeugen; und
    • einen Bildsensor, der konfiguriert ist, um reflektiertes Licht, das Licht von dem Ausgangsstrahl ist, das von dem Fahrer reflektiert wird, abzubilden.
  • In einigen Ausführungsformen hat die Anordnung von Oberflächenelementen Phaseneigenschaften, um ein zweidimensionales strukturiertes Lichtmuster quer zu dem Ausgangslichtstahl zu erzeugen. In einigen Ausführungsformen umfasst das strukturierte Lichtmuster mehrere Punkte, die an bekannten Orten quer zu dem Ausgangslichtstrahl angeordnet sind. In einigen Ausführungsformen sind die Punkte als Bereiche mit niedrigerem Kontrast als der umgebende Ausgangslichtstrahl definiert. Bevorzugt liegt das Kontrastverhältnis der Punkte zu dem umgebenden Ausgangslichtstrahl im Bereich von 70% bis 90%.
  • In einigen Ausführungsformen hat die Anordnung von Oberflächenelementen Polarisationseigenschaften, um den Ausgangslichtstrahl in einen ersten Polarisationszustand, der einer links- oder rechtszirkularen Polarisation entspricht, zu polarisieren. In diesen Ausführungsformen umfasst das System ein Polarisationsfilter, das proximal zu dem Bildsensor angeordnet ist, wobei das Filter konfiguriert ist, um reflektiertes Licht mit dem ersten Polarisationszustand zu dem Bildsensor zu lenken und Licht mit allen anderen Polarisationszuständen auszusondern. In einer Ausführungsform umfasst das Polarisationsfilter eine dielektrische Metaoberfläche mit einer zweidimensionalen Anordnung von Oberflächenelementen, die konfiguriert sind, um die erste zirkular polarisierte Lichtkomponente zu absorbieren und das verbleibende reflektierte Licht durchzulassen.
  • In einigen Ausführungsformen hat die Anordnung von Oberflächenelementen Phaseneigenschaften, um den Ausgangslichtstrahl zu formen, so dass er im Wesentlichen zu einem Sichtfeld des Bildsensors passt.
  • In einigen Ausführungsformen ist die Lichtquelle ein Laser. Bevorzugt ist der Laser ein oberflächenemittierender Laser mit vertikalem Resonator (VCSEL-Laser).
  • In verschiedenen Ausführungsformen ist das Abbildungssystem für den Betrieb in einem Fahrerüberwachungssystem zur Überwachung eines Fahrzeugfahrers, in einer Mobilvorrichtung zum Abbilden eines Benutzers der Vorrichtung, in einem LIDAR-System oder einer Computer-Webkamera zum Abbilden eines Benutzers des Computers konfiguriert.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Abbildungssystem zum Abbilden einer Szene bereitgestellt, wobei das Abbildungssystem umfasst:
    • eine Lichtquelle zum Erzeugen eines Eingangslichtstrahls und Projizieren des Eingangslichtstrahls entlang eines Wegs in Richtung der Szene;
    • eine dielektrische Metaoberfläche, die innerhalb des Wegs des Eingangslichtstrahls positioniert ist, wobei die Metaoberfläche eine zweidimensionale Anordnung von Oberflächenelementen hat, die konfiguriert sind, um den Eingangslichtstrahl zirkular zu polarisieren, um einen Ausgangslichtstrahl mit einem zirkularen Polarisationszustand zur Beleuchtung der Szene zu erzeugen;
    • ein Polarisationsfilter, das konfiguriert ist, um reflektiertes Licht von der Szene zu empfangen und reflektiertes Licht mit dem zirkularen Polarisationszustand zu dem Bildsensor zu lenken und Licht mit allen anderen Polarisationszuständen auszusondern; und
    • einen Bildsensor, der konfiguriert ist, um das reflektierte Licht abzubilden, um Bilder der Szene zu gewinnen.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Abbildungssystem zum Abbilden einer Szene bereitgestellt, wobei das Abbildungssystem umfasst:
    • eine Lichtquelle zum Erzeugen eines Eingangslichtstrahls und Projizieren des Eingangslichtstrahls entlang eines Wegs in Richtung der Szene;
    • eine dielektrische Metaoberfläche, die innerhalb des Wegs des Eingangslichtstrahls positioniert ist, wobei die Metaoberfläche eine zweidimensionale Anordnung von Oberflächenelementen hat, die konfiguriert sind, um ein zweidimensionales strukturiertes Lichtmuster quer zu dem Strahl zu erzeugen, um einen strukturierten Ausgangslichtstrahl zur Beleuchtung der Szene zu erzeugen;
    • einen Bildsensor, der konfiguriert ist, um Bilder von reflektiertem Licht, das Licht von dem strukturierten Ausgangsstrahl ist, das von der Szene reflektiert wird, aufzunehmen; und
    • einen Prozessor, der konfiguriert ist, um die aufgenommenen Bilder zu verarbeiten, um aus Änderungen des zweidimensionalen strukturierten Lichtmusters Tiefeninformationen über die Szene zu schätzen.
  • Figurenliste
  • Bevorzugte Ausführungsformen der Offenbarung werden nun lediglich beispielhaft unter Bezug auf die begleitenden Zeichnungen beschrieben, wobei:
    • 1 eine Perspektivansicht eines Inneren eines Fahrzeugs ist, das ein Fahrerüberwachungssystem gemäß einer Ausführungsform der Erfindung darstellt;
    • 2 eine Perspektivansicht des Fahrers des Fahrzeugs von 1 ist, die das Fahrerüberwachungssystem von 1 und ein Sichtfeld nach vorn des Fahrers darstellt;
    • 3 ein schematisches Funktionsdiagramm des Fahrerüberwachungssystems der 1 und 2 ist;
    • 4 eine schematische Draufsicht des Fahrerüberwachungssystems der 1 bis 3 ist;
    • 5 eine schematische Darstellung einer dielektrischen Beispielmetaoberfläche ist;
    • 6 eine Vorderansicht eines Gesichts des Fahrers ist, die eine Projektion einer Anordnung von Punkten als strukturiertes Licht auf dem Gesicht darstellt;
    • 7 eine Schnittansicht des Fahrerüberwachungssystems der 1 bis 4 ist, welche die Polarisation der Eingangs- und reflektierten Lichtstrahlen darstellt;
    • 8 eine Vorher-Nachher-Vorderansicht eines Gesichts des Fahrers ist, welche die Entfernung einer Spiegelung darstellt; und
    • 9 eine Vorher-Nachher-Seitenansicht des reflektierten Lichts ist, das auf einen Bildsensor einer Kamera einfällt.
  • Detaillierte Beschreibung
  • Systemüberblick
  • Hier werden Ausführungsformen von Abbildungssystemen zur Abbildung einer Szene mit einer Kamera unter aktiver Beleuchtung von einer Lichtquelle beschrieben. Die bevorzugten Ausführungsformen der Erfindung wurden insbesondere für Fahrerüberwachungssysteme zur Abbildung eines Fahrers eines Fahrzeugs entwickelt. Es wird jedoch zu schätzen gewusst, dass die Erfindung auf andere Anwendungsgebiete und in anderen Zusammenhängen anwendbar ist, in welchen die abgebildete Szene kein Fahrer eines Fahrzeugs ist. Beispielhaft haben Ausführungsformen der Erfindung Anwendungen in Beleuchtungs- und Abbildungssystemen für Mobilvorrichtungen (Mobiletelefone, Tablet-Computer, PDAs, Laptops, etc.), Webkameras und LIDAR-Systemen.
  • Anfänglich Bezugnehmend auf 1 und 2 wird ein Fahrerüberwachungssystem 100 zur Überwachung und Verfolgung des Kopfs und der Augen eines Fahrers 102 eines Fahrzeugs 104 dargestellt. Das System 100 umfasst eine Infrarotkamera 106, die auf oder in der Fahrzeuginstrumentenanzeige positioniert ist, um mit Wellenlängen im Infrarotbereich Bilder der Augen des Fahrers 102 aufzunehmen. Eine Infrarotlichtquelle in der Form eines oberflächenemittierenden Lasers mit vertikalem Resonator (VCSEL-Laser) 108 ist benachbart zu der Kamera 106 angeordnet, um einen Eingangslichtstrahl zu erzeugen und den Lichtstrahl entlang eines Wegs in Richtung des Fahrers 102 zu projizieren. Der VCSEL 108 wird gesteuert, um das Gesicht des Fahrers während der Bildaufnahme durch die Kamera 106 auf eine nachstehend beschriebene Weise selektiv mit Infrarotstrahlung zu beleuchten. In einigen Ausführungsformen kann der VCSEL 108 durch andere Arten von Lichtquellen, wie etwa Leuchtdioden (LEDs), Richtglühlampen oder Fluoreszenzleuchten ersetzt werden.
  • Der Betrieb in dem Infrarotbereich verringert die Ablenkung für den Fahrer. In einigen Ausführungsformen werden abwechselnd zwei beabstandete VCSELs aktiviert oder „gepulst“, um die Beleuchtung in verschiedenen Winkeln bereitzustellen, die, wie in der PCT-Patentanmeldungsveröffentlichung WO 2016/131075 mit dem Titel „Glare Reduction“, die Seeing Machines Limited erteilt ist, beschrieben, eine Verringerung von Spiegelungseffekten ermöglicht. Wie nachstehend beschrieben wird, ist die vorliegende Erfindung fähig, die in Bildern vorhandene Spiegelung ohne die Notwendigkeit von zwei oder mehr getrennten Lichtquellen zu verringern.
  • Die Kamera 106 kann eine CCD- oder CMOS-basierte zweidimensionale Kamera mit einem Bildsensor sein, der eine Anordnung lichtempfindlicher Pixel aufweist, die fähig sind, elektromagnetische Strahlung im Infrarotbereich abzutasten. In anderen Ausführungsformen kann die Kamera 106 durch eine einzige zweidimensionale Kamera mit einer Tiefenerfassungsfähigkeit oder ein Paar gleicher Kameras, die in einer Stereokonfiguration arbeiten und geeicht sind, um die Tiefe zu extrahieren, ersetzt werden. Wenngleich die Kamera 106 bevorzugt konfiguriert ist, um den Infrarotwellenlängenbereich abzubilden, wird zu schätzen gewusst, dass die Kamera 106 in alternativen Ausführungsformen im sichtbaren Bereich abbilden kann.
  • Wie in 3 gezeigt, arbeitet eine Systemsteuerung 112 als der Zentralprozessor für das System 100 und ist konfiguriert, um eine Anzahl von Funktionen, wie nachstehend beschrieben, durchzuführen. Die Steuerung 112 ist innerhalb des Armaturenbretts des Fahrzeugs 5 angeordnet und kann mit dem Fahrzeugbordcomputer verbunden oder integral damit sein. In einer anderen Ausführungsform kann die Steuerung 112 zusammen mit der Kamera 106 und dem VCSEL 108 in einem Gehäuse oder Modul angeordnet sein. Das Gehäuse oder Modul kann als ein Nachrüstprodukt, das an ein Fahrzeugarmaturenbrett montiert und anschließend für die Verwendung in diesem Fahrzeug geeicht wird, vertrieben werden. In weiteren Ausführungsformen, wie etwa Flugsimulatoren, kann die Steuerung 112 ein externer Computer oder eine Einheit, wie etwa ein Personal Computer, sein.
  • In anderen Ausführungsformen kann das Fahrerüberwachungssystem 100 eine oder mehr Kameras und Lichtquellen, die an anderen Orten montiert sind, die geeignet sind, um Bilder des Kopfs oder von Gesichtsmerkmalen eines Fahrers, einer Testperson und/oder eines Fahrgasts in einem Fahrzeug aufzunehmen. Beispielhaft können Kameras und Lichtquellen auf einer Lenksäule, einem Rückspiegel, einer Mittelkonsole oder der fahrerseitigen A-Säule des Fahrzeugs angeordnet werden. Ebenso können in einigen Ausführungsformen mehr als zwei Lichtquellen in dem System verwendet werden. Die Steuerung 112 kann als jede Form von Computerverarbeitungsvorrichtung oder ein Abschnitt einer Vorrichtung, die elektronische Daten, z.B. von Registern und/oder einem Speicher verarbeitet, implementiert werden, um diese elektronische Daten in andere elektronische Daten umzuwandeln, die z.B. in Registern und/oder einem Speicher gespeichert werden können. Wie in 2 dargestellt, umfasst die Steuerung 112 einen Mikroprozessor 114, der wie für Fachleute der Technik ohne Weiteres offensichtlich sein sollte, in dem Speicher 116, wie etwa einem Direktzugriffspeicher (RAM), einem Nur-Lese-Speicher (ROM), einem elektrisch löschbaren programmierbaren Nur-Lese-Speicher (EEPROM) und anderen äquivalenten Speicher- oder Aufzeichnungssystemen gespeicherten Kode ausführt.
  • Der Mikroprozessor 114 der Steuerung 112 umfasst einen Vision-Prozessor 118 und eine Vorrichtungssteuerung 120. Der Vision-Prozessor 118 und die Vorrichtungssteuerung 120 stellen Funktionselemente dar, die von dem Mikroprozessor 114 ausgeführt werden. Es wird jedoch zu schätzen gewusst, dass der Vision-Prozessor 118 und die Vorrichtungssteuerung 120 in alternativen Ausführungsformen als getrennte Hardware, wie etwa Mikroprozessoren, in Verbindung mit kundenangepasster oder spezialisierter Schaltungsanordnung verwendet werden können.
  • Der Vision-Prozessor 118 ist konfiguriert, um die aufgenommenen Bilder zu verarbeiten, um die Fahrerüberwachung durchzuführen; um zum Beispiel eine dreidimensionale Kopfhaltung und/oder Augenblickrichtung des Fahrers 102 innerhalb der Überwachungsumgebung zu bestimmen. Um dies zu erreichen, nutzt der Vision-Prozessor 118 einen oder mehrere Augenblickrichtungsbestimmungsalgorithmen. Diese können beispielhaft die Methodik umfassen, die in dem US-Patent 7 043 056 mit dem Titel „Facial Image Processing System“, das Seeing Machines Pty Ltd. erteilt ist, beschrieben ist. Der Vision-Prozessor 118 kann auch verschiedene andere Funktionen ausführen, die das Bestimmen von Attributen des Fahrers 102, wie etwa das Schließen der Augen, die Blinzelfrequenz und die Verfolgung der Kopfbewegung des Fahrers, um die Aufmerksamkeit, die Schläfrigkeit des Fahrers und andere Themen, welche die sichere Bedienung des Fahrzeugs durch den Fahrer stören, umfassen. Die Rohbilddaten, Blickrichtungsdaten und andere Daten, die von dem Vision-Prozessor 118 gewonnen werden, werden in dem Speicher 116 gespeichert.
  • Die Vorrichtungssteuerung 120 ist konfiguriert, um die Kamera 106 zu steuern und um den VCSEL selektiv synchron mit der Belichtungszeit der Kamera 106 zu betätigen. Der VCSEL 108 ist bevorzugt mit der Vorrichtungssteuerung 120 elektrisch verbunden, aber kann auch durch drahtlose Kommunikation, wie etwa Blutooth™ - oder WiFi™-Kommunikation, drahtlos durch die Steuerung 120 gesteuert werden.
  • Während des Betriebs des Fahrzeugs 104 aktiviert die Vorrichtungssteuerung 120 die Kamera 106, um Bilder des Gesichts des Fahrers 102 in einer Videosequenz aufzunehmen. Der VCSEL 108 wird synchron mit aufeinanderfolgenden Einzelbildern, die von der Kamera 106 aufgenommen werden, aktiviert und deaktiviert, um den Fahrer während der Bildaufnahme zu beleuchten. Die Kamera 106 umfasst einen Bildsensor, der konfiguriert ist, um reflektiertes Licht abzubilden, das Licht von dem Ausgangslichtstrahl ist, das von dem Gesicht des Fahrers reflektiert wird. In Zusammenarbeit sorgen die Vorrichtungssteuerung 120 und der Vision-Prozessor 118 für die Erfassung und Verarbeitung von Bildern des Fahrers, um während eines gewöhnlichen Betriebs des Fahrzeugs 104 Fahrerzustandsinformationen, wie etwa Schläfrigkeit, Aufmerksamkeit und Blickrichtung zu gewinnen.
  • Das System 100 arbeitet unter veränderlichen Lichtbedingungen, die helle und dunkle Bedingungen umfassen, und wenn der Fahrer eine dunkle oder reflektierende Sonnenbrille verwendet.
  • Nun wird Bezugnehmend auf 4 eine schematische Draufsicht des Systems 100 dargestellt, die Aspekte der vorliegenden Erfindung deutlicher betont. Insbesondere umfasst das System 100 ein Abbildungssystem 200, das eine im Wesentlichen planare dielektrische Metaoberfläche 201 umfasst, die benachbart zu dem VCSEL 108 angeordnet ist. Die Metaoberfläche 201 ist innerhalb des Wegs eines von dem VCSEL 108 erzeugten Eingangslichtstrahls 202 positioniert. Die Metaoberfläche hat eine zweidimensionale Anordnung von Oberflächenelementen, die konfiguriert ist, um dem Eingangslichtstrahl eine vorgegebene Phasen-, Polarisations- und/oder Intensitätsänderung aufzuerlegen, um einen Ausgangslichtstrahl 204 zur Beleuchtung des Fahrers 102 zu erzeugen. Eine schematische Darstellung einer Beispielmetaoberfläche ist in 5 dargestellt. Diese Figur ist ein Auszug von „Dielectric metasufaces for complete control of phase and polarization with subwavelength spatial resolution and high transmission", A Arbabi et al., Nature Nanotechnology 10, 937 - 943 (2015) (hier nachstehend „Arbabi“).
  • Die Funktion und der Betrieb der Metaoberfläche 201 werden nachstehend detaillierter beschrieben. Wenngleich als eine lichtdurchlässige Vorrichtung dargestellt, kann die Metaoberfläche 201 in anderen Ausführungsformen als eine reflektierende Vorrichtung implementiert werden.
  • Überblick über dielektrische Metaoberflächen
  • Optische oder dielektrische Metaoberflächen sind Dünnschichtmaterialien mit Subwellenlängenmuster, die stark mit einfallendem Licht wechselwirken. Typische Metaoberflächen umfassen ein- und zweidimensionale Anordnungen von Oberflächenprofilelementen (als „Pixel“ bezeichnet) mit einer Subwellenlängenperiodizität.
  • Dielektrische Metaoberflächen können durch herkömmliche komplementäre Metall-Oxid-Halbleiter- (CMOS-) Herstellungsverfahren hergestellt werden. Diese Metaoberflächen können aus Substratmaterialien, die Silizium und andere Materialien mit hohem Brechungsindex umfassen, hergestellt werden.
  • Beispielhafte dielektrische Metaoberflächenstrukturen, die konstruiert sind, um eine vollständige Phasen- und Polarisationssteuerung von Licht bereitzustellen, sind in dem vorstehend referenzierten Arbabi beschrieben. In diesen Konstruktionen ist die Oberfläche in sechseckige Pixelregionen unterteilt und die Pixelstrukturen weisen elliptische Säulen auf, die aus amorphem Silizium ausgebildet sind und veränderliche Dicke und Orientierung haben. Die elliptischen Säulen stehen von einem planaren Oberflächensubstrat aus Quarzglasmaterial senkrecht vor. Diese Anordnung ist in 5 dargestellt.
  • Die Subwellenlängen-Pixelstrukturen sind konstruiert, um die Phase, Polarisation und Amplitude eines einfallenden Lichtstrahls lokal zu modifizieren, und können in Transmissions- oder Reflexionsbetriebsarten arbeiten. Eine geeignet konstruierte Metaoberfläche ist fähig, die vollständige Kontrolle über die Polarisation und Phase zu erreichen, wenn sie alle gewünschten physikalisch zulässigen räumlich veränderlichen Polarisations- und Phasenverteilungen von einem Eingangsstahl mit beliebigen Polarisations- und Phasenverteilungen erzeugen kann. In optischer Hinsicht erfordert dies, dass jede Subwellenlängen-Pixelstruktur derart konstruiert ist, dass sie jede unitäre und symmetrische Jones-Matrix implementiert. Eine derartige Anforderung kann unter Verwendung einer dielektrischen Metaoberfläche erreicht werden, wenn der Winkel (ϕx, ϕy) zwischen einer der Hauptachsen des Materials und der x-Achse frei gewählt werden kann. Dies ist durch die Auswahl der Pixelparameter Dx und Dy und eines Drehwinkels 0 in der Ebene möglich. Für Systeme, die in dem nahen Infrarotbereich arbeiten, sind die Abmessungen der Subwellenlängenpixelelemente typischerweise größer als 1 nm und kleiner als 1 mm. Im sichtbaren Bereich können die Abmessungen der Pixelelemente sogar ein kleineres Maß haben.
  • In dem Beispiel von Arbabi führt der elliptische Querschnitt der Säulen (die als Wellenleiter wirken) zu verschiedenen effektiven Brechungsindizes von Wellenleitermoden, die entlang der zwei Ellipsendurchmesser polarisiert sind. Als ein Ergebnis erlegt jede der Säulen dem transmittierten Licht eine polarisationsabhängige Phasenverschiebung auf und modifiziert sowohl seine Phase als auch Polarisation.
  • Aufgrund der Symmetrie ändert eine normal einfallende optische Welle, die entlang einer der Ellipsenachsen linear polarisiert ist, die Polarisation nicht und erlangt nur eine Phase, während sie die Anordnung durchläuft. Die Phasenverschiebungen, die den x- und y-polarisierten Wellen (d.h. ϕx und ϕy) durch die Anordnung auferlegt werden, sind Funktionen der elliptischen Säulendurchmesser Dx und Dy. Beispielhafte Abmessungen der elliptischen Säulen sind -715 nm groß mit Durchmessern im Bereich von 65 nm bis 455 nm. Daher verhält sich die Anordnung als ein 2D-Material mit einstellbarer Doppelbrechung, dessen Hauptachsen entlang x- und y-Richtungen sind.
  • Die Hauptachsen der in 2a gezeigten doppelbrechenden Anordnung können durch Drehen der gesamten Anordnung oder mit guter Näherung durch Drehen aller Säulen um ihre Achsen gedreht werden.
  • Daher kann in dem Beispiel von Arbabi jedes gewünschte räumlich veränderliche Polarisations- und Phasenprofil erzeugt werden, indem die einfallende Wellenfront mit einem Subwellenlängengitter abgetastet wird und elliptische Säulen mit richtigen Abmessungen und Drehwinkeln an den Gitterstellen angeordnet werden, um dem transmittierten Licht die erforderliche Phasen- und Polarisationsänderung zu verleihen. Eine ähnliche Steuerung kann in anderen dielektrischen Metaoberflächenkonstruktionen implementiert werden.
  • Um die Beugung von Licht in Beugungsordnungen ungleich null zu vermeiden und um hohe Polarisations- und Phasengradienten zu erreichen, die für die Implementierung optischer Komponenten, wie etwa Linsen mit hohen numerischen Aperturen, erforderlich sind, ist es wichtig, dass jedes Pixel eine seitliche Abmessung hat, die kleiner als eine Wellenlänge ist.
  • Zu dem Zweck der Herstellung dielektrischer Metaoberflächen ist eine geeignete Oberflächenkonstruktion erforderlich. Dies kann erreicht werden, indem ein optisches Eingangsstrahlprofil und ein gewünschtes optisches Ausgangsstrahlprofil in optische Simulationssoftware eingegeben werden. Die Software kann ein entsprechendes Jones-Matrixfeld bestimmen, das die Strahlprofiltransformation durchführen würde. Dieses Jones-Matrixfeld kann verwendet werden, um eine entsprechende zweidimensionale Anordnung von Pixelelementen zu berechnen, die aus einem Substrat unter Verwendung von Techniken wie etwa CMOS, hergestellt werden können.
  • Die Bedeutung einer dielektrischen Metaoberfläche ist, dass die Funktion eines Bereichs an unterschiedlichen herkömmlichen optischen Elementen auf einem einzigen flachen optischen Element implementiert werden kann. Die Feinsteuerung der lokalen Phase quer zu der gesamten Strahlwellenfront ermöglicht die Manipulation der optischen Strahlleistung, um den Stahl zu fokussieren, umzuformen oder umzulenken. Herkömmliche optische Beispielelemente, die unter Verwendung dielektrischer Metaoberflächen funktional realisiert werden können, umfassen Linsen, Polarisatoren, Strahlteiler, Wellenverzögerer, räumliche Phasenmodulatoren und optische Filter.
  • Systembetrieb
  • In verschiedenen Ausführungsformen sind die Oberflächenelemente der Metaoberflächen 201 derart konstruiert, dass sie die Phase und/oder die Polarisation und/oder die Intensität der Eingangslichtstrahl-Wellenfront beeinflussen. Dies ermöglicht, wie nachstehend beschrieben, die Erzeugung mehrerer vorteilhafter Ergebnisse, welche die Leistung des Fahrerüberwachungssystems verbessern.
  • Tiefenschätzung unter Verwendung von strukturiertem Licht
  • In einigen Ausführungsformen ist die Anordnung von Oberflächenelementen der Metaoberfläche 201 derart konstruiert, dass sie Phaseneigenschaften hat, um quer zu dem Ausgangslichtstrahl ein zweidimensionales strukturiertes Lichtmuster zu erzeugen. Dieses strukturierte Lichtmuster fällt auf das Gesicht des Fahrers 102 ein und wird an der Kamera 106 erfasst. Wie beispielhaft in 6 dargestellt, kann das strukturierte Lichtmuster eine Anordnung von Punkten 600 umfassen, die quer zu dem Ausgangslichtstrahl an bekannten Stellen angeordnet sind. Hier sind die Punkte als Bereiche mit niedrigerem Kontrast als der umgebende Ausgangslichtstrahl definiert. Das Kontrastverhältnis der Punkte zu dem umgebenden Ausgangslichtstrahl liegt bevorzugt im Bereich von 70% bis 90% und kann 70%, 75%, 80%, 85%, 90% oder jede Zahl dazwischen sein. In einigen Ausführungsformen ist der Kontrastunterschied höher als 90%, aber kleiner als 100%, zum Beispiel 95%.
  • Die Erzeugung eines strukturierten Lichtmusters, wie etwa einer Anordnung von Punkten, ist durch Herstellung einer Metaoberfläche, so dass sie lokale Phasenänderungen hat, die eine Beugungsoberfläche definieren, möglich. Die Beugungseffekte wirken, um das Licht in dem Strahl zu lenken, so dass er eine Wellenfront mit kleinen lokalen Bereichen geringerer Intensität, wo die Punkte ausgebildet werden sollen, bildet. Wie vorstehend beschrieben, werden die lokalen Phasenänderungen durch die Herstellung von Oberflächenelementen mit verschiedener Dicke an verschiedenen Stellen quer zu der Metaoberfläche 201 durchgeführt.
  • Im Betrieb wird der Fahrer 102 mit dem Ausgangslichtstrahl 204 beleuchtet, der die Anordnung von Punkten 600 über das Gesicht des Fahrers projiziert. Abhängig von der Tiefe des Merkmals, von dem die Punkte reflektiert werden, wird die Anordnung von Punkten bei der Abbildung durch die Kamera 106 verformt. Wenn die genaue Position der Punkte vorher genau geeicht wurde, kann der Verformungsgrad der Anordnung von dem Prozessor 118 verwendet werden, um Tiefeninformationen über das Gesicht des Fahrers zu extrahieren. Somit können die Tiefeninformationen in Kombination mit der zweidimensionalen seitlichen Position der Gesichtsmerkmale eine vollständige dreidimensionale Bestimmung von Gesichtsmerkmalen bereitstellen, um eine Gesichtsmerkmalsverfolgung, wie etwa der Kopfhaltung und der Augenblickrichtung, bereitzustellen.
  • Es wird zu schätzen gewusst, dass eine Anzahl verschiedener strukturierter Lichtmuster verwendet werden kann, um die Tiefenschätzung durchzuführen. Eine andere Beispielstruktur ist ein Liniengitter. Die Punktstruktur mit kleinen Kontraständerungen ist vorteilhaft, da sie dem Bild zugesetztes Rauschen minimiert und daher den Einfluss auf die Genauigkeit der Gesichtsmerkmalsverfolgung verringert. Wenngleich als eine geordnete Anordnung von Punkten dargestellt, wird zu schätzen gewusst, dass die Anordnung nicht geordnet sein muss. Das Punktmuster kann pseudozufällig sein, solange die nicht verformte Position der Punkte in den Bildern vor der Tiefenschätzung genau geeicht werden kann. Die Eichung kann durchgeführt werden, indem das strukturierte Lichtmuster auf eine bekannte Referenzoberfläche, wie etwa eine planare Oberfläche, projiziert wird und die abgebildete Punktposition gemessen wird.
  • Spiegelungsverringerung durch Polarisation
  • In einigen Ausführungsformen ist die Anordnung von Oberflächenelementen der Metaoberfläche 201 derart konstruiert, dass sie Polarisationseigenschaften hat, um den Ausgangsichtstrahl in einen links- oder rechtszirkularen Polarisationszustand zu polarisieren. Wie in 7 dargestellt, ist die Metaoberfläche 201 beispielhaft konstruiert, um den Eingangslichtstrahl 202 zirkular zu polarisieren, um den Ausgangslichtstrahl 204 mit rechtszirkularem polarisiertem Licht zu erzeugen. Das System 100 umfasst auch ein Polarisationsfilter 206, das nahe an der Kamera 106 angeordnet ist. Das Filter 206 ist konfiguriert, um nur reflektiertes oder rückgestreutes Licht 208 mit rechtszirkular polarisiertem Licht zu dem Bildsensor der Kamera 106 zu transmittieren. Das Filter 206 sondert Licht mit allen Polarisationszuständen aus.
  • Die zirkulare Polarisation einer Eingangslichtquelle ist möglich durch Herstellung einer Metaoberfläche, so dass sie lokale Polarisationsänderungen hat, die eine Gesamtpolarisation des Strahls durchführen. Wie vorstehend beschrieben, können die lokalen Polarisationsänderungen durchgeführt werden, indem Oberflächenelemente mit verschiedener elliptischer Orientierung an verschiedenen Stellen quer über die Metaoberfläche 201 hergestellt werden, um das elektrische Feld in einem Subwellenlängenmaßstab zu beeinflussen.
  • Im Betrieb wird das rechtszirkular polarisierte Licht des Strahls 204 auf das Gesicht des Fahrers 102 projiziert. Das von dem Fahrer zurückgeworfene Licht weist abhängig von der Oberfläche, von der das Licht reflektiert wird, spiegelnde und diffuse (oder rückgestreute) Reflexionen auf. Es ist bekannt, dass spiegelnde Reflexionen von hochreflektierenden Oberflächen, wie etwa Hornhäuten, glänzender Haut und Brillen, bei hellen Lichtbedingungen (einschließlich der Lichtquelle selbst) Spiegelungen erzeugen. Dies ist in dem oberen Feld von 8 dargestellt. Diese Reflexionen stellen häufig Rauschen in Systemen, wie etwa Fahrerüberwachungssystemen dar, das an dem Bildsensor Licht von außerhalb der Szene empfangen werden kann.
  • Nach der spiegelnden Reflexion von einer Oberfläche bei normalem Einfall kehren elektromagnetische Wellen ihre elektrischen Felder um. Für linear polarisiertes Licht führt dies zu einer Umkehr der linearen Polarität. Für zirkular polarisiertes Licht wird bei der Reflexion die Drehrichtung der Polarisation umgekehrt. Somit wird ein rechtszirkular polarisierter Lichtstrahl als linkspolarisiertes Licht reflektiert und umgekehrt. Licht, das von Oberflächen, wie etwa der Haut des Fahrers, diffuser reflektiert wird, wird ohne irgendeine größere Änderung des Polarisationszustands reflektiert.
  • Das reflektierte Licht 208 weist daher Licht mit verschiedenen Polarisationszuständen auf. Nach dem Einfall auf das Polarisationsfilter 206 wird reflektiertes Licht, das immer noch einen rechtszirkularen Polarisationszustand hat, durch das Filter 206 transmittiert und an dem Bildsensor der Kamera 106 empfangen. Alle anderen Polarisationszustände werden von dem Filter 206 absorbiert. Diese Transmission und der Empfang des zirkular polarisierten Lichts ermöglichen vorteilhafterweise das Filtern von verrauschten spiegelnden Reflexionen aus Spiegelungen, wodurch die Qualität des Bilds, das von dem Prozessor 118 verarbeitet werden soll, verbessert wird. Diese Spiegelungsverringerung ist in 8 dargestellt.
  • In einigen Ausführungsformen ist das Polarisationsfilter 206 in einer herkömmlichen Weise unter Verwendung einer Kombination einer Viertelwellenplatte und eines linearen Polarisators aufgebaut. In anderen Ausführungsformen umfasst das Polarisationsfilter 206 eine dielektrische Metaoberfläche mit einer zweidimensionalen Anordnung von Oberflächenelementen, die konfiguriert ist, um die erste zirkular polarisierte Lichtkomponente zu absorbieren und das verbleibende reflektierte Licht durchzulassen.
  • Wenngleich als rechtszirkular polarisiertes Licht sendend und empfangend dargestellt, wird klar sein, dass ein äquivalenter Aufbau erzeugt werden kann, um linkszirkular polarisiertes Lichtkomponente zu senden und zu empfangen, um die gleichen Spiegelungsverringerungswirkungen zu erreichen.
  • Wenngleich das Polarisationsfilter 205 als ein Transmissionsfilter dargestellt ist, wird klar sein, dass das Filter 206 in anderen Ausführungsformen als ein Reflexionsfilter realisiert werden kann.
  • Wenngleich als verschiedene Effekte beschrieben, wird klar sein, dass eine einzige dielektrische Metaoberfläche konstruiert werden kann, welche die vorstehend beschriebenen strukturieren Licht-, Polarisations- und Strahlformungseffekte gleichzeitig ausführt.
  • Strahlformung
  • In einigen Ausführungsformen ist die Anordnung von Oberflächenelementen der Metaoberfläche 201 derart konstruiert, dass sie Phaseneigenschaften hat, um den Ausgangslichtstrahl zu formen, so dass er im Wesentlichen zu einem Sichtfeld des Bildsensors der Kamera 106 passt. Bildsensoren, die im NIR-Bereich arbeiten, sind nur in einem schmalbandigen Lichtbereich empfindlich. Daher ist es wichtig, die an dem Bildsensor empfangene Lichtmenge zu maximieren.
  • Die Formung einer Strahlwellenfront ist möglich durch die Herstellung einer Metaoberfläche, so dass sie lokale Phasenänderungen hat, die insgesamt eine Linse definieren, um den Strahl zu fokussieren oder zu defokussieren. Die Beugungseffekte wirken derart, dass sie eine räumlich veränderliche Dicke einer Linse simulieren, um den Strahl zu einer stärker fokussierten oder defokussierten Taille zu formen. In der vorliegenden Anwendung wird die Metaoberfläche 201 konstruiert, um die Taille des Eingangslichtstrahls 202 derart zu fokussieren, dass das reflektierte Licht 208 im Wesentlichen zu dem Sichtfeld der Kamera 106 passt. Dies ist in 9 dargestellt. Wie vorstehend beschrieben, können die lokalen Phasenänderungen, die diese Linsenwirkung durchführen, erreicht werden, indem Oberflächenelemente mit verschiedener Dicke an verschiedenen Stellen quer über die Metaoberfläche 201 hergestellt werden.
  • Schlussfolgerungen
  • Es wird klar sein, dass die vorstehend beschriebenen Ausführungsformen Vorteile bei der Verbesserung der Bildqualität von Bildern, die in einem Fahrerüberwachungssystem aufgenommen werden, bereitstellen. Ähnliche Vorteile können unter Verwendung der vorliegenden Erfindung in anderen Abbildungssystemen realisiert werden.
  • Die Implementierung einer dielektrischen Metaoberfläche in einem Abbildungssystem stellt verschiedene vorteilhafte Ergebnisse bereit. Zum Beispiel ermöglicht die Erfindung das Erreichen der Polarisation, Strahlformung und von strukturiertem Licht auf einem einzigen dünnen Wafer-Metaoberflächenelement. Dies beseitigt die Notwendigkeit einer Anzahl von großen optischen Elementen, die zu der Systemgröße, den Kosten und dem optischen Gesamtverlust beitragen.
  • Vorteile der Verwendung dielektrischer Metaoberflächen können umfassen:
    • - Nahezu vollständige Transmission (T > 99%);
    • - Geringe Reflexionsverluste;
    • - Geringe Absorptionsverluste im nahen Infrarotbereich; und
    • - Geringe Polarisationsumwandlungsverluste Interpretation
  • Fachleute der Technik werden verstehen, dass die Frequenz und Wellenlänge eines Laserstahls durch die Gleichung verbunden sind: Lichtgeschwindigkeit = Wellenl a ¨ nge*Frequenz
    Figure DE112018006420T5_0001
  • Wenn auf eine Frequenzverschiebung, Frequenzumwandlung, Frequenzverbreiterung, verschiedene Frequenzen und ähnliche Begriffe Bezug genommen wird, sind diese als Folge mit den entsprechenden Begriffen Wellenlängenverschiebung, Wellenlängenumwandlung, Wellenlängenverbreiterung, verschiedene Wellenlängen und Ähnlichen austauschbar.
  • Über diese Spezifikation hinweg soll die Verwendung des Begriffs „Element“ entweder eine einzige unitäre Komponente oder eine Sammlung von Komponenten bedeuten, die kombiniert werden, um eine spezifische Funktion oder einen Zweck auszuführen.
  • Wenn nicht spezifisch anders dargelegt, wird, wie aus den folgenden Diskussionen offensichtlich ist, zu schätzen gewusst, dass über die Spezifikation hinweg Diskussionen, die Begriffe, wie etwa „verarbeiten“, „berechnen“, „rechnen“, „bestimmen“, „analysieren“ oder Ähnliches verwenden, sich auf die Tätigkeit und/oder Verfahren eines Rechners oder Rechensystems oder einer ähnlichen elektronischen Rechenvorrichtung beziehen, welche Daten, die als physikalische, wie etwa elektronische, Größen dargestellt werden, in andere Daten manipuliert und/oder umwandelt, die ebenfalls als physikalische Größen dargestellt werden.
  • In ähnlicher Weise kann sich der Begriff „Steuerung“ oder „Prozessor“ auf jede Vorrichtung oder einen Abschnitt einer Vorrichtung beziehen, die/der elektronische Daten, z.B. von Registern und/oder aus dem Speicher verarbeitet, um diese elektronischen Daten in andere elektronische Daten umzuwandeln, die z.B. in Registern und/oder einem Speicher gespeichert werden können. Ein „Computer“ oder eine „Rechenvorrichtung“ oder eine „Rechenplattform“ können einen oder mehrere Prozessoren umfassen.
  • Über diese Spezifikation hinweg bedeutet der Bezug auf „eine einzige Ausführungsform“, „einige Ausführungsformen“ oder „eine Ausführungsform“, dass ein bestimmtes Merkmal, eine Struktur oder Charakteristik, die in Verbindung mit der Ausführungsform beschrieben wird, in wenigstens einer Ausführungsform der vorliegenden Offenbarung enthalten ist. Auf diese Weise beziehen sich die Ausdrücke „in einer einzigen Ausführungsform“, „in einigen Ausführungsformen“ oder „in einer Ausführungsform“ an verschiedenen Stellen über diese Spezifikation hinweg nicht notwendigerweise alle auf die gleiche Ausführungsform. Außerdem können die bestimmten Merkmale, Strukturen oder Charakteristiken aus dieser Offenbarung, wie für jemanden mit gewöhnlichen Kenntnissen der Technik offensichtlich, auf jede geeignete Weise in einer oder mehreren Ausführungsformen kombiniert werden.
  • Wie sie hier verwendet werden, gibt die Verwendung der Ordnungszahl „erste“, „zweite“, „dritte“, etc. für die Beschreibung eines allgemeinen Objekts, wenn nicht anders angegeben, lediglich an, dass auf verschiedene Beispiele ähnlicher Objekte Bezug genommen wird, und sie sind nicht dazu gedacht, zu implizieren, dass die derart beschriebenen Objekte in einer gegebenen Reihenfolge, weder zeitlich, räumlich, in der Reihenfolge oder irgendeiner anderen Weise, vorgegeben werden müssen.
  • In den nachstehenden Patentansprüchen und der Beschreibung hier ist jeder der Begriffe aufweisen, beinhalten oder der/die/das aufweist ein offener Begriff, der wenigstens die Elemente/Merkmale, die folgen, umfasst, aber andere nicht ausschließt. Somit sollte der Begriff aufweisen, wenn er in den Patentansprüchen verwendet wird, nicht als auf die danach aufgelisteten Einrichtungen oder Elemente oder Schritte beschränkt ausgelegt werden. Zum Beispiel sollte der Umfang des Ausdrucks, dass eine Vorrichtung A und B aufweist, nicht auf Vorrichtungen beschränkt werden, die nur aus den Elementen A und B bestehen. Jeder der Begriffe umfassend oder der/die/das umfasst, wie er hier verwendet wird, ist ebenfalls ein offener Begriff, der auch bedeutet, dass wenigstens die Elemente/Merkmale, die folgen, enthalten sind, aber andere nicht ausgeschlossen werden. Somit ist umfassen synonym mit und bedeutet aufweisen.
  • Es sollte klar sein, dass in der vorstehenden Beschreibung beispielhafter Ausführungsformen der Offenbarung manchmal verschiedene Merkmale der Offenbarung zu dem Zweck, die Offenbarung zu rationalisieren und zum Verständnis eines oder mehrerer der verschiedenen erfinderischen Aspekte beizutragen, in einer einzigen Ausführungsform, Fig. oder Beschreibung davon gruppiert werden. Dieses Offenbarungsverfahren sollte jedoch nicht als eine Absicht widerspiegelnd ausgelegt werden, dass die Patentansprüche mehr Merkmale erfordern, als ausdrücklich in jedem Patentanspruch vorgetragen. Vielmehr liegen erfinderische Aspekte, wie die folgenden Patentansprüche widerspiegeln, in weniger als allen Merkmalen einer einzigen vorangehenden offenbarten Ausführungsform. Somit werden die Patentansprüche, die auf die detaillierte Beschreibung folgen, hiermit ausdrücklich in diese detaillierte Beschreibung eingebunden, wobei jeder Patentanspruch für sich selbst als eine getrennte Ausführungsform dieser Offenbarung steht.
  • Während einige hier beschriebene Ausführungsformen außerdem einige Merkmale, aber Andere in anderen Ausführungsformen Enthaltene nicht umfassen, sollen Kombinationen von Merkmalen verschiedener Ausführungsformen, wie für Fachleute der Technik verstanden wird, innerhalb des Schutzbereichs der Offenbarung liegen und verschiedene Ausführungsformen bilden. Zum Beispiel kann in den folgenden Patentansprüchen jede der beanspruchten Ausführungsformen in jeder Kombination verwendet werden.
  • In der hier bereitgestellten Beschreibung werden zahlreiche spezifische Details dargelegt. Es versteht sich jedoch, dass Ausführungsformen der Offenbarung ohne diese spezifischen Details in die Praxis umgesetzt werden können. In anderen Fällen wurden wohlbekannte Verfahren, Strukturen und Techniken nicht im Detail gezeigt, um ein Verständnis dieser Beschreibung nicht zu verschleiern.
  • Ähnlich sollte sich verstehen, dass der Begriff gekoppelt, wenn er in den Patentansprüchen verwendet wird, nicht als nur auf direkte Verbindungen beschränkt ausgelegt werden sollte. Die Begriffe „gekoppelt“ und „verbunden“ können nebst ihren Derivaten verwendet werden. Es sollte sich verstehen, dass diese Begriffe nicht als Synonyme füreinander gedacht sind. Somit sollte der Bereich des Ausdrucks einer Vorrichtung A, die mit einer Vorrichtung B gekoppelt ist, nicht auf Vorrichtungen oder Systeme beschränkt werden, bei denen ein Ausgang der Vorrichtung A direkt mit einem Eingang der Vorrichtung B verbunden ist. Dies bedeutet, dass es einen Weg zwischen einem Ausgang von A und einem Eingang von B gibt, der ein Weg sein kann, der andere Vorrichtungen oder Einrichtungen umfasst. „Gekoppelt“ kann bedeuten, dass zwei oder mehr Elemente entweder in direktem physikalischem, elektrischem oder optischem Kontakt sind, oder dass zwei oder mehr Elemente nicht in direktem Kontakt miteinander sind, aber immer noch miteinander zusammenarbeiten oder wechselwirken.
  • Während somit beschrieben wurde, was für die bevorzugten Ausführungsformen der Offenbarung gehalten wird, werden Fachleute der Technik erkennen, dass andere und weitere Modifikationen daran vorgenommen werden können, ohne von dem Geist der Offenbarung abzuweichen, und es ist beabsichtigt, alle derartigen Änderungen und Modifikationen zu beanspruchen, wie sie in den Schutzbereich der Offenbarung fallen. Zum Beispiel sind jegliche vorstehend angegebenen Formeln lediglich repräsentativ für Verfahren, die verwendet werden können. Funktionalität kann zu den Blockdiagrammen hinzugefügt oder davon entfernt werden, und Betriebe können zwischen Funktionsblöcken ausgetauscht werden. Zu Verfahren, die innerhalb des Schutzbereichs der vorliegenden Offenbarung beschrieben werden, können Schritte hinzugefügt oder davon entfernt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2016/131075 [0018]
    • US 7043056 [0023]
  • Zitierte Nicht-Patentliteratur
    • „Dielectric metasufaces for complete control of phase and polarization with subwavelength spatial resolution and high transmission“, A Arbabi et al., Nature Nanotechnology 10, 937 - 943 (2015) [0027]

Claims (17)

  1. Abbildungssystem zur Abbildung einer Testperson, wobei das Abbildungssystem umfasst: eine Lichtquelle zum Erzeugen eines Eingangslichtstrahls und Projizieren des Eingangslichtstrahls entlang eines Wegs in Richtung der Testperson; eine dielektrische Metaoberfläche, die innerhalb des Wegs des Eingangslichtstrahls positioniert ist, wobei die Metaoberfläche eine zweidimensionale Anordnung von Oberflächenelementen hat, die konfiguriert sind, um dem Eingangslichtstrahl vorgegebene Phasen-, Polarisations- und/oder Intensitätsänderungen aufzuerlegen, um einen Ausgangslichtstrahl zur Beleuchtung der Testperson zu erzeugen; und einen Bildsensor, der konfiguriert ist, um zurückgeworfenes Licht, das Licht von dem Ausgangsstrahl ist, das von der Testperson reflektiert oder rückgestreut wird, abzubilden.
  2. Abbildungssystem nach Anspruch 1, wobei die Anordnung von Oberflächenelementen Phaseneigenschaften hat, um ein zweidimensionales strukturiertes Lichtmuster quer zu dem Ausgangslichtstahl zu erzeugen.
  3. Abbildungssystem nach Anspruch 2, wobei das strukturierte Lichtmuster mehrere Punkte umfasst, die an bekannten Orten quer zu dem Ausgangslichtstrahl angeordnet sind.
  4. Abbildungssystem nach Anspruch 3, wobei die Punkte als Bereiche mit niedrigerem Kontrast als der umgebende Ausgangslichtstrahl definiert sind.
  5. Abbildungssystem nach Anspruch 4, wobei das Kontrastverhältnis der Punkte zu dem umgebenden Ausgangslichtstrahl im Bereich von 70% bis 90% liegt.
  6. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei die Anordnung von Oberflächenelementen Polarisationseigenschaften hat, um den Ausgangslichtstrahl in einen ersten Polarisationszustand, der einer links- oder rechtszirkularen Polarisation entspricht, zu polarisieren.
  7. Abbildungssystem nach Anspruch 6, das ein Polarisationsfilter umfasst, das proximal zu dem Bildsensor angeordnet ist, wobei das Filter konfiguriert ist, um reflektiertes Licht mit dem ersten Polarisationszustand zu dem Bildsensor zu lenken und Licht mit allen anderen Polarisationszuständen auszusondern.
  8. Abbildungssystem nach Anspruch 7, wobei das Polarisationsfilter eine dielektrische Metaoberfläche mit einer zweidimensionalen Anordnung von Oberflächenelementen umfasst, die konfiguriert sind, um die erste zirkular polarisierte Lichtkomponente zu absorbieren und das verbleibende reflektierte Licht durchzulassen.
  9. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei die Anordnung von Oberflächenelementen Phaseneigenschaften hat, um den Ausgangslichtstrahl zu formen, so dass er im Wesentlichen zu einem Sichtfeld des Bildsensors passt.
  10. Abbildungssystem nach einem der vorhergehenden Ansprüche, wobei die Lichtquelle ein Laser ist.
  11. Abbildungssystem nach Anspruch 10, wobei der Laser ein oberflächenemittierender Laser mit vertikalem Resonator (VCSEL-Laser) ist.
  12. Abbildungssystem nach einem der vorhergehenden Ansprüche, das für den Betrieb in einem Fahrerüberwachungssystem zur Überwachung eines Fahrzeugfahrers konfiguriert ist.
  13. Abbildungssystem nach einem der Ansprüche 1 bis 11, das für den Betrieb in einer Mobilvorrichtung zum Abbilden eines Benutzers der Mobilvorrichtung konfiguriert ist.
  14. Abbildungssystem nach einem der Ansprüche 1 bis 11, das für den Betrieb in einem LIDAR-System konfiguriert ist.
  15. Abbildungssystem nach einem der Ansprüche 1 bis 11, das für den Betrieb in einer Computer-Webkamera zum Abbilden eines Benutzers des Computers konfiguriert ist.
  16. Abbildungssystem zum Abbilden einer Szene, wobei das Abbildungssystem umfasst: eine Lichtquelle zum Erzeugen eines Eingangslichtstrahls und Projizieren des Eingangslichtstrahls entlang eines Wegs in Richtung der Szene; eine dielektrische Metaoberfläche, die innerhalb des Wegs des Eingangslichtstrahls positioniert ist, wobei die Metaoberfläche eine zweidimensionale Anordnung von Oberflächenelementen hat, die konfiguriert sind, um den Eingangslichtstrahl zirkular zu polarisieren, um einen Ausgangslichtstrahl mit einem zirkularen Polarisationszustand zur Beleuchtung der Szene zu erzeugen; ein Polarisationsfilter, das konfiguriert ist, um reflektiertes Licht von der Szene zu empfangen und reflektiertes Licht mit dem zirkularen Polarisationszustand zu dem Bildsensor zu lenken und Licht mit allen anderen Polarisationszuständen auszusondern; und einen Bildsensor, der konfiguriert ist, um das reflektierte Licht abzubilden, um Bilder der Szene zu gewinnen.
  17. Abbildungssystem zum Abbilden einer Szene, wobei das Abbildungssystem umfasst: eine Lichtquelle zum Erzeugen eines Eingangslichtstrahls und Projizieren des Eingangslichtstrahls entlang eines Wegs in Richtung der Szene; eine dielektrische Metaoberfläche, die innerhalb des Wegs des Eingangslichtstrahls positioniert ist, wobei die Metaoberfläche eine zweidimensionale Anordnung von Oberflächenelementen hat, die konfiguriert sind, um ein zweidimensionales strukturiertes Lichtmuster quer zu dem Strahl zu erzeugen, um einen strukturierten Ausgangslichtstrahl zur Beleuchtung der Szene zu erzeugen; einen Bildsensor, der konfiguriert ist, um Bilder von zurückgeworfenem Licht, das Licht von dem strukturierten Ausgangsstrahl ist, das von der Szene reflektiert oder rückgestreut wird, aufzunehmen; und einen Prozessor, der konfiguriert ist, um die aufgenommenen Bilder zu verarbeiten, um aus Änderungen des zweidimensionalen strukturierten Lichtmusters Tiefeninformationen über die Szene zu schätzen.
DE112018006420.4T 2017-12-18 2018-12-07 Hochleistungsabbildungssystem unter Verwendung einer dielektrischen Metaoberfläche Pending DE112018006420T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2017905047A AU2017905047A0 (en) 2017-12-18 High performance imaging system using a dielectric metasurface
AU2017905047 2017-12-18
PCT/AU2018/051314 WO2019119025A1 (en) 2017-12-18 2018-12-07 High performance imaging system using a dielectric metasurface

Publications (1)

Publication Number Publication Date
DE112018006420T5 true DE112018006420T5 (de) 2020-09-17

Family

ID=66992358

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018006420.4T Pending DE112018006420T5 (de) 2017-12-18 2018-12-07 Hochleistungsabbildungssystem unter Verwendung einer dielektrischen Metaoberfläche

Country Status (3)

Country Link
US (1) US11431889B2 (de)
DE (1) DE112018006420T5 (de)
WO (1) WO2019119025A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020105652B4 (de) 2019-04-02 2023-06-15 GM Global Technology Operations LLC Verfolgungssystem mit infrarot-kamera

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018002670T5 (de) 2017-05-24 2020-03-05 The Trustees Of Columbia University In The City Of New York Breitband achromatische flache optische Komponenten durch dispersionstechnische dielektrische Metaoberflächen
US10795168B2 (en) 2017-08-31 2020-10-06 Metalenz, Inc. Transmissive metasurface lens integration
KR20220035971A (ko) 2019-07-26 2022-03-22 메탈렌츠 인코포레이티드 개구-메타 표면 및 하이브리드 굴절-메타 표면 이미징 시스템
CN110686652B (zh) * 2019-09-16 2021-07-06 武汉科技大学 一种基于深度学习和结构光相结合的深度测量方法
CN115699316A (zh) * 2020-04-01 2023-02-03 麻省理工学院 用于眼部应用的基于元光学件的系统和方法
EP4060978A1 (de) 2021-02-11 2022-09-21 Seeing Machines Limited Verbesserte kabinenüberwachung mit elektrisch geschalteter polarisation
JP2022146186A (ja) * 2021-03-22 2022-10-05 スズキ株式会社 車室監視装置
US11927769B2 (en) 2022-03-31 2024-03-12 Metalenz, Inc. Polarization sorting metasurface microlens array device
DE102022114753B3 (de) 2022-05-18 2023-08-03 Cariad Se Innenraumüberwachungsvorrichtung, Verfahren und Fahrzeug

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9066087B2 (en) * 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
WO2013033591A1 (en) 2011-08-31 2013-03-07 President And Fellows Of Harvard College Amplitude, phase and polarization plate for photonics
WO2015195286A1 (en) * 2014-06-17 2015-12-23 Board Of Regents, The University Of Texas System Parity-time symmetric metasurfaces and metamaterials
US11698510B2 (en) * 2015-04-22 2023-07-11 Samsung Electronics Co., Ltd. Imaging apparatus and image sensor including the same
US10161797B2 (en) * 2015-07-05 2018-12-25 Purdue Research Foundation Sub-millimeter real-time circular dichroism spectrometer with metasurfaces
US10489924B2 (en) 2016-03-30 2019-11-26 Samsung Electronics Co., Ltd. Structured light generator and object recognition apparatus including the same
US20180129866A1 (en) * 2016-11-10 2018-05-10 Intel Corporation Meta illuminator
KR20180055298A (ko) * 2016-11-16 2018-05-25 삼성전자주식회사 2차원 광 변조 소자 및 이를 포함하는 전자 기기
CN107045246B (zh) * 2017-03-06 2019-04-30 东南大学 一种可见光波段反射式超表面器件及反射光波长调制方法
US10488651B2 (en) * 2017-04-10 2019-11-26 California Institute Of Technology Tunable elastic dielectric metasurface lenses
US10705214B2 (en) * 2017-07-14 2020-07-07 Microsoft Technology Licensing, Llc Optical projector having switchable light emission patterns
EP3444782B1 (de) * 2017-08-19 2022-03-30 Cognex Corporation Codierung von distanztopologien für strukturierte lichtmuster zur 3d-rekonstruktion
US11385104B2 (en) * 2017-12-22 2022-07-12 Arizona Board Of Regents On Behalf Of Arizona State University On-chip polarization detection and polarimetric imaging
CN211426796U (zh) * 2019-10-18 2020-09-04 深圳奥锐达科技有限公司 一种离轴扫描距离测量系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020105652B4 (de) 2019-04-02 2023-06-15 GM Global Technology Operations LLC Verfolgungssystem mit infrarot-kamera

Also Published As

Publication number Publication date
WO2019119025A1 (en) 2019-06-27
US11431889B2 (en) 2022-08-30
US20210176403A1 (en) 2021-06-10

Similar Documents

Publication Publication Date Title
DE112018006420T5 (de) Hochleistungsabbildungssystem unter Verwendung einer dielektrischen Metaoberfläche
DE102020105652B4 (de) Verfolgungssystem mit infrarot-kamera
DE202016008701U1 (de) Dynamische holografieorientierte Tiefendruckvorrichtung
DE102011083353A1 (de) Abbildungsvorrichtung und Abbildungsverfahren
DE112009000516T5 (de) Intraorales Abbildungssystem und Verfahren, das auf der konoskopischen Holographie beruht
DE102015201561A1 (de) Messkopf einer endoskopischen Vorrichtung und Verfahren zur Inspektion und Messung eines Objektes
EP3293558A1 (de) Vorrichtung zum erfassen eines stereobilds
EP3371632A1 (de) Optisches system
WO2018015496A1 (de) Vorrichtungen zur dateneinspiegelung
DE69723110T2 (de) Verlaufgitter für Beugungsentfernungsmessung
DE102008059665A1 (de) Optischer Modulator, optisches Modulatormodul und diese enthaltende Abtastanzeigevorrichtung
DE212022000095U1 (de) Bildprojektion
DE102010041344A1 (de) Anzeigevorrichtung
EP3370595A2 (de) Brille mit anzeigevorrichtung und vorrichtung zur augenüberwachung
DE102017215976A1 (de) Verfahren und Vorrichtung zur Vermessung eines Laserstrahls
DE212017000117U1 (de) Fahrzeuganzeige mit Brennweitenkorrekturmerkmal
WO2020120297A1 (de) Verfahren zur herstellung eines holografisch-optischen bauelements (hoe), welches zur projektion in einem projektionssystem vorgesehen ist, ein solches holografisch-optisches bauelement, projektionsvorrichtung, brillenglas für eine datenbrille sowie eine solche datenbrille
EP3443883B1 (de) Vorrichtungen und verfahren zur durchführung augenbezogener messungen
WO2019007698A1 (de) Digitale bestimmung der fokusposition
DE102015215106A1 (de) Bildgebereinheit für ein Head-up-Display, Head-up-Display und Verfahren zum Erzeugen stereoskopsicher Halbbilder mittels einer Bildgebereinheit
DE102014205362A1 (de) Vorrichtung und Verfahren zur optischen Erfassung einer Oberflächenstruktur und Verfahren zur Herstellung einer solchen Vorrichtung
DE102018004055A1 (de) Gesamtreflexionsmessvorrichtung
DE102018102241A1 (de) Verfahren zum Abbilden einer Probe mittels eines Lichtblattmikroskops
DE102021105888A1 (de) Optisches System zur Gewinnung von 3D-Rauminformationen
EP3293571B1 (de) Beleuchtungssystem und abbildungssystem