DE112019005749T5 - Tiefenabtastung mittels optischer lichtlaufzeitverfahren durch einedurchlässige abdeckung - Google Patents

Tiefenabtastung mittels optischer lichtlaufzeitverfahren durch einedurchlässige abdeckung Download PDF

Info

Publication number
DE112019005749T5
DE112019005749T5 DE112019005749.9T DE112019005749T DE112019005749T5 DE 112019005749 T5 DE112019005749 T5 DE 112019005749T5 DE 112019005749 T DE112019005749 T DE 112019005749T DE 112019005749 T5 DE112019005749 T5 DE 112019005749T5
Authority
DE
Germany
Prior art keywords
optical signal
signal reflected
phase shift
transmissive cover
amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019005749.9T
Other languages
English (en)
Inventor
Pradeep Hegde
Timothy Cogan
Doug Nelson
Drew Paterson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ams Sensors Singapore Pte Ltd
Original Assignee
Ams Sensors Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ams Sensors Singapore Pte Ltd filed Critical Ams Sensors Singapore Pte Ltd
Publication of DE112019005749T5 publication Critical patent/DE112019005749T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0425Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using optical fibers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Techniken zur dynamischen Bestimmung der Intensität der Reflexion von einer transmissiven Abdeckung und deren Neutralisierung, um die Genauigkeit von Tiefenmessungen zu verbessern. Es werden Tiefenmessungen der Lichtmodulation bei mehreren Frequenzen - die auch zur Tiefen-Disambiguierung verwendet werden können - gewonnen und zur Entkopplung der Informationen zur Schätzung der Intensität des von der durchlässigen Abdeckung selbst oder einem Fleck auf der durchlässigen Abdeckung reflektierten Signals und der Intensität des vom Zielobjekt reflektierten Signals verwendet.

Description

  • BEREICH DER OFFENLEGUNG
  • Diese Offenbarung bezieht sich auf die Tiefenabtastung mittels optischer Time-of-Flight (TOF)-Techniken.
  • HINTERGRUND
  • Einige Handheld-Computergeräte, wie z. B. Smartphones, können eine Vielzahl verschiedener optischer Funktionen bieten, wie z. B. eindimensionale (1D) oder dreidimensionale (3D) Gestenerkennung, 3D-Bildgebung, Lichtlaufzeit- oder Näherungserkennung, Umgebungslichterfassung und/oder zweidimensionale (2D) Kamerabildgebung an der Vorderseite.
  • TOF-Sensoren können z. B. verwendet werden, um den Abstand zu einem Objekt zu erkennen oder um 3D-Tiefeninformationen zu erhalten. Im Allgemeinen basieren TOF-Systeme auf einer Phasenmesstechnik von emittiertem intensitätsmoduliertem Licht, das von einem oder mehreren Objekten in einer Szene reflektiert wird. Das reflektierte Licht wird auf einen Sensor abgebildet, und die photogenerierten Elektronen werden im Sensor demoduliert. Basierend auf der Phaseninformation kann der Abstand (oder die Tiefe) zu einem Punkt in der Szene für jedes Pixel im Sensor bestimmt werden.
  • Der TOF-Sensor ist manchmal unter einem Deckglas eines Host-Geräts (z. B. eines Smartphones) angeordnet. Wenn sich auf der Oberfläche des Deckglases, durch die das Licht in Richtung der Szene abgestrahlt wird, eine Verunreinigung (d. h. ein Fleck) befindet, kann der Fleck einen Teil des abgestrahlten Lichts zurück in Richtung der Erkennungspixel reflektieren. Solche Situationen können zu ungenauen Schätzungen der Abstands- oder Tiefendaten führen.
  • ZUSAMMENFASSUNG
  • Die vorliegende Offenlegung beschreibt Techniken, um die Intensität der Reflexion von einer transmissiven Abdeckung (z. B. einem Deckglas) dynamisch zu bestimmen und zu neutralisieren, um die Genauigkeit von Tiefenmessungen zu verbessern. Tiefenmessungen der Lichtmodulation bei mehreren Frequenzen - die auch für die Tiefen-Disambiguierung verwendet werden können - werden erhalten und verwendet, um die Informationen zur Schätzung der Intensität des von der transmissiven Abdeckung (d. h. der transmissiven Abdeckung selbst oder einem Fleck auf der transmissiven Abdeckung) reflektierten Signals und der Intensität des vom Zielobjekt reflektierten Signals zu entkoppeln.
  • In einem Aspekt beschreibt die vorliegende Offenbarung beispielsweise ein Verfahren, das das Aussenden von Licht von einem Modul mit einer ersten Modulationsfrequenz und das Aussenden von Licht mit einer zweiten Modulationsfrequenz umfasst, wobei das Licht durch eine durchlässige Abdeckung in Richtung eines Ziels ausgesendet wird. Das Verfahren umfasst das Messen erster Amplituden- und Phasenverschiebungswerte, die eine Kombination aus einem von dem Ziel reflektierten optischen Signal und einem von der durchlässigen Abdeckung reflektierten optischen Signal darstellen, als Reaktion auf das mit der ersten Modulationsfrequenz emittierte Licht, und das Messen zweiter Amplituden- und Phasenverschiebungswerte, die eine Kombination aus einem von dem Ziel reflektierten optischen Signal und einem von der durchlässigen Abdeckung reflektierten optischen Signal darstellen, als Reaktion auf das mit der zweiten Modulationsfrequenz emittierte Licht. Das Verfahren umfasst ferner das Schätzen einer Amplitude eines von der durchlässigen Abdeckung reflektierten optischen Signals und einer Amplitude eines von der durchlässigen Abdeckung reflektierten optischen Signals, wobei das Schätzen zumindest teilweise auf den gemessenen ersten und zweiten Amplituden- und Phasenverschiebungswerten und auf während der Kalibrierung des Moduls erhaltenen Phasenverschiebungswerten basiert.
  • In einem anderen Aspekt beschreibt die vorliegende Offenbarung eine Vorrichtung, die eine durchlässige Abdeckung, einen Speicher, der die Phasenverschiebungswerte der Kalibrierungsstufe speichert, einen Lichtemitter und eine Tiefenkamera umfasst. Der Lichtemitter ist betreibbar, um Licht von einem Modul mit einer ersten Modulationsfrequenz zu emittieren, und betreibbar, um Licht mit einer zweiten Modulationsfrequenz zu emittieren, wobei das Licht durch die durchlässige Abdeckung in Richtung eines Ziels emittiert wird. Die Tiefenkamera ist betreibbar, um erste Amplituden- und Phasenverschiebungswerte zu messen, die eine Kombination aus einem optischen Signal, das von dem Ziel reflektiert wird, und einem optischen Signal, das von der durchlässigen Abdeckung reflektiert wird, als Reaktion auf das mit der ersten Modulationsfrequenz emittierte Licht darstellen. Die Tiefenkamera ist ferner in der Lage, zweite Amplituden- und Phasenverschiebungswerte zu messen, die eine Kombination aus einem optischen Signal, das von dem Ziel reflektiert wird, und einem optischen Signal, das von der durchlässigen Abdeckung reflektiert wird, als Reaktion auf das mit der zweiten Modulationsfrequenz ausgesendete Licht darstellen. Die Vorrichtung enthält eine Verarbeitungsschaltung, die betreibbar ist, um eine Amplitude eines von der durchlässigen Abdeckung reflektierten optischen Signals und eine Amplitude eines von der durchlässigen Abdeckung reflektierten optischen Signals zu schätzen. Die Verarbeitungsschaltung kann die Schätzung zumindest teilweise auf der Grundlage der gemessenen ersten und zweiten Amplituden- und Phasenverschiebungswerte sowie der Phasenverschiebungswerte der Kalibrierungsstufe durchführen.
  • Einige Implementierungen umfassen eines oder mehrere der folgenden Merkmale. Zum Beispiel können die während der Kalibrierung des Moduls erhaltenen Phasenverschiebungswerte jeweils einen Phasenverschiebungswert für ein von der durchlässigen Abdeckung reflektiertes optisches Signal und einen Phasenverschiebungswert für ein von einem Ziel reflektiertes optisches Signal darstellen. Außerdem kann jedes der von der durchlässigen Abdeckung reflektierten optischen Signale mindestens eines von einem optischen Signal, das von der durchlässigen Abdeckung selbst reflektiert wird, oder ein optisches Signal, das von einem Fleck auf der durchlässigen Abdeckung reflektiert wird, umfassen.
  • In einigen Fällen umfasst die Schätzung das Lösen von vier nichtlinearen Gleichungen für Werte von vier unbekannten Variablen. Die Schätzung kann z. B. die Verwendung eines iterativen Prozesses (z. B. Gradientenabstieg) beinhalten.
  • Die von der Verarbeitungsschaltung geschätzten Amplitudenwerte können in einigen Fällen hochpräzise Daten liefern und können verwendet werden, um verschiedene Komponenten eines Host-Geräts zu modifizieren oder andere Aktionen auszulösen. So wird in einigen Implementierungen eine Eigenschaft eines Host-Geräts, in dem das Modul angeordnet ist, als Reaktion auf einen oder mehrere der geschätzten Werte eingestellt. Beispielsweise kann die Helligkeit eines Bildschirms als Reaktion auf einen oder mehrere der geschätzten Werte eingestellt werden. Ferner wird in einigen Fällen auf der Grundlage des geschätzten Wertes der Amplitude des von der durchlässigen Abdeckung reflektierten optischen Signals festgestellt, dass sich möglicherweise ein Fleck auf der durchlässigen Abdeckung befindet, und als Reaktion auf die Feststellung, dass sich möglicherweise ein Fleck auf der durchlässigen Abdeckung befindet, wird eine Warnmeldung erzeugt. Die Warnmeldung kann z. B. darauf hinweisen, dass die durchlässige Abdeckung gereinigt werden sollte, um Verunreinigungen auf ihrer Oberfläche zu entfernen.
  • Weitere Aspekte, Merkmale und verschiedene Vorteile werden aus der folgenden detaillierten Beschreibung, den beigefügten Zeichnungen und den Ansprüchen ersichtlich.
  • Figurenliste
    • zeigt ein Beispiel für ein optoelektronisches Modul.
    • und zeigen Diagramme, die Licht mit einer ersten Modulationsfrequenz ( und einer zweiten Modulationsfrequenz ( darstellen.
    • ist ein Flussdiagramm eines Verfahrens zur Bestimmung von Tiefen-/Distanzwerten.
  • DETAILLIERTE BESCHREIBUNG
  • zeigt ein Beispiel für ein optoelektronisches Modul 100, das einen Lichtemissionskanal 102 und einen Lichterfassungskanal 104 umfasst. Ein Lichtemitter 106 und eine optoelektronische Tiefenkamera 108 sind auf einer Leiterplatte (PCB) oder einem anderen Substrat 110 montiert, das die Unterseite des Modulgehäuses bildet. Der Lichtemitter kann Licht mit verschiedenen Modulationsfrequenzen emittieren. In einigen Implementierungen ist der Lichtemitter 106 als Laserdiode oder als oberflächenemittierender Laser mit vertikalem Resonator (VCSEL) ausgeführt.
  • Im dargestellten Beispiel ist ein Abstandshalter 114 an der ersten Seite der Leiterplatte 110 angebracht und trennt die Leiterplatte 110 von einem optischen Element 116. Eine Innenwand 115 des Abstandshalters 114 kann eine optische Isolierung zwischen den beiden Kammern des Moduls (d. h. der Lichtsendekammer (Kanal) 102 und der Lichterfassungskammer (Kanal) 104) bieten. Das Optikteil 116 kann ein oder mehrere entsprechende passive optische Elemente (z. B. Linsen) 120A, 120B für jeden Kanal 102, 104 enthalten. Das Licht des Senders 106 wird aus dem Modul 100 herausgeleitet und kann, wenn es von einem Objekt zurück zum Erfassungskanal 104 des Moduls reflektiert wird, von der Tiefenkamera 108 erfasst werden.
  • Die Tiefenkamera 108 enthält ein Array räumlich verteilter lichtempfindlicher Elemente (z. B. Pixel), einschließlich aktiver Demodulationserkennungspixel 124, und kann auch Logik und andere Elektronik zum Lesen und Verarbeiten der Pixelsignale enthalten. Die Pixel und andere Schaltungen können z. B. in einem integrierten Halbleiterchip (z. B. als CCD- oder CMOS-Sensor) implementiert sein. Obwohl die Anzahl und Anordnung der Demodulationserfassungspixel 124 je nach Implementierung variieren kann, sind die Demodulationserfassungspixel in einigen Implementierungen als MxN-Array angeordnet.
  • Die Tiefenkamera 108 kann z. B. als indirekter Laufzeitsensor (iTOF) mit Einzelphotonen-Synchrondetektion (SPSD) betrieben werden. Die Pixel 124 können so betrieben werden, dass sie Licht mit der/den Wellenlänge(n) des vom Sender 106 emittierten Lichts erfassen. Bei SPSD wird eine Szene mit einer sinusförmigen oder pseudo-sinusförmigen Lichtintensität beleuchtet. Der Abstand d zu einem Punkt in der Szene kann geschätzt werden als: d = ( c ϕ ) / ( 2 2 π f )
    Figure DE112019005749T5_0001
    wobei c die Lichtgeschwindigkeit im Vakuum, f die Modulationsfrequenz und ϕ die gemessene Phasendifferenz zwischen dem ausgehenden Lichtsignal und dem Messsignal ist. Die Phase ϕ kann direkt durch das Zählen von Photonen auf strukturierte Weise berechnet werden. In anderen Implementierungen kann die Tiefenkamera z. B. als Avalanche-Detektor realisiert werden.
  • Der Emitter 106 und die Tiefenkamera 108 können elektrisch mit der Leiterplatte 110 verbunden werden, z. B. durch leitende Pads oder Drahtverbindungen. Die Leiterplatte 110 wiederum kann elektrisch mit anderen Komponenten innerhalb eines Host-Geräts (z. B. einem Smartphone) verbunden werden.
  • Die Steuer- und Verarbeitungsschaltung 140 des Sensors (z. B. eine elektronische Steuerschaltung) kann z. B. als eine oder mehrere integrierte Schaltungen in einem oder mehreren Halbleiterchips mit geeigneter digitaler Logik und/oder anderen Hardwarekomponenten (z. B. Ausleseregistem, Verstärkern, Analog-Digital-Wandlern, Taktgebern, Timing-Logik, Signalverarbeitungsschaltungen und/oder einem Mikroprozessor) implementiert werden. Die Steuer- und Verarbeitungsschaltung 140 kann sich auf demselben Halbleiterchip wie die Tiefenkamera 108 oder auf einem oder mehreren anderen Halbleiterchips befinden. In einigen Fällen kann sich die Steuer- und Verarbeitungsschaltung 140 außerhalb des Moduls 100 befinden; zum Beispiel kann die Steuer- und Verarbeitungsschaltung in einen Prozessor für ein Host-Gerät integriert sein, in dem das Modul 100 angeordnet ist.
  • In einigen Fällen ist das Modul 100 in ein Host-Gerät (z. B. ein Smartphone oder ein anderes Handheld-Computergerät) integriert, das eine lichtdurchlässige Abdeckung (z. B. ein Deckglas) 132 enthält, unter der das Modul 100 angeordnet ist. Diese Anordnung kann in einigen Fällen dazu führen, dass störende Reflexionen erzeugt werden. Solche Störreflexionen können z. B. vom Deckglas 132 selbst oder von einem Fleck (d. h. einer verwischten oder verschmierten Markierung wie einem Fingerabdruck oder Schmutz oder einer anderen Verunreinigung) 130 auf dem Deckglas 132 stammen. Wenn Daten von der Tiefenkamera 108 erfasst werden, stellen die gesammelten Daten eine Kombination aus dem empfangenen Signal, das von einem Ziel außerhalb des Moduls reflektiert wird, und einem Signal dar, das vom Deckglas (d. h. dem Deckglas selbst oder einem Fleck auf dem Deckglas) reflektiert wird. Wenn sich beispielsweise Verunreinigungen auf dem Deckglas 132 ablagern, kann dies die Intensität des vom Deckglas reflektierten Signals verändern, was zu Fehlern und Unsicherheiten bei den Tiefenmessungen führt.
  • In diesem und den folgenden Abschnitten wird ein Verfahren beschrieben, um die Intensität der Reflexion vom Deckglas dynamisch zu bestimmen und zu neutralisieren, um die Genauigkeit der Tiefenmessungen zu verbessern. Das Verfahren verwendet vorzugsweise die gleichen Pixel 124, die zur Erfassung der Tiefendaten verwendet werden. Es ist bekannt, dass die Erfassung von Tiefendaten bei mehreren (z. B. zwei) unterschiedlichen Modulationsfrequenzen vorteilhaft genutzt werden kann, um eine nicht eindeutige Tiefenkarte zu erzeugen. Das vorliegende Verfahren verwendet die Tiefenmessungen der Lichtmodulation bei mehreren (z. B. zwei) Frequenzen - die auch zur Tiefen-Disambiguierung verwendet werden können - und entkoppelt die Informationen, um die Intensität des vom Deckglas (d. h. dem Deckglas selbst oder einem Fleck auf dem Deckglas) reflektierten Signals und die Intensität des vom Zielobjekt reflektierten Signals zu schätzen.
  • Das vorliegende Verfahren schätzt die Intensität des vom Deckglas reflektierten Signals und die Intensität des von einem Zielobjekt reflektierten Signals zumindest teilweise auf der Grundlage von Amplitudenmessungen (ampl, amp2) und Phasenverschiebungsmessungen (ϕ1, ϕ2), die während eines Messzyklus für ein bestimmtes Zielobjekt erfasst wurden, sowie von Phasenverschiebungsmessungen (α1, .α2), die zuvor erfasst und gespeichert wurden, z. B. während der Werkskalibrierung des jeweiligen Moduls 100. In diesem Fall werden die Amplituden- und Phasenverschiebungsmessungen jeweils mit zwei verschiedenen Lichtmodulationsfrequenzen (fl, f2) durchgeführt. Die Amplitudenmessungen (ampl, amp2) und Phasenverschiebungsmessungen (ϕ1, ϕ2) stellen die Summierung der vom Zielobjekt und vom Deckglas reflektierten Signale dar, während die Phasenverschiebungsmessungen (α1, α2) die vom Deckglas reflektierten Signale darstellen. Wie weiter unten erläutert, können die vorgenannten bekannten Werte von der Steuer- und Verarbeitungsschaltung 140 verwendet werden, um die Intensität des vom Deckglas reflektierten Signals und/oder die Intensität des vom Zielobjekt reflektierten Signals zu schätzen. Verweise auf vom Deckglas reflektierte Signale umfassen Signale, die vom Deckglas selbst reflektiert werden, und Signale, die von einem Fleck auf dem Deckglas reflektiert werden.
  • und zeigen Graphen (d. h. Amplitude und Phase) für Licht mit einer ersten Modulationsfrequenz f1 ( bzw. für Licht mit einer anderen zweiten Modulationsfrequenz f2 ( . Insbesondere illustriert einen Vektor T1, der ein von einem Zielobjekt in einer Szene reflektiertes Signal darstellt, einen Vektor CGI, der ein vom Deckglas reflektiertes Signal darstellt, und einen Vektor R1, der ein Signal darstellt, das der Kombination der vom Zielobjekt und vom Deckglas reflektierten Signale entspricht. Ebenso zeigt einen Vektor T2, der ein von einem Zielobjekt in einer Szene reflektiertes Signal darstellt, einen Vektor CG2, der ein vom Deckglas reflektiertes Signal darstellt, und einen Vektor R2, der ein Signal darstellt, das der Kombination der von dem Zielobjekt und dem Deckglas reflektierten Signale entspricht. In einigen Implementierungen sind die Modulationsfrequenzen 100 MHz und 115 MHz. Für einige Implementierungen können auch andere Modulationsfrequenzen geeignet sein. Vorzugsweise sind die Modulationsfrequenzen keine ganzzahligen Vielfachen voneinander. und zeigen auch die Phasenverschiebungen (d.h. relativ zur Achse des vom Sender 106 ausgesandten Strahls) für jedes der Signale. So ist in die Phasenverschiebung für das vom Deckglas reflektierte Signal α1, die Phasenverschiebung für das vom Zielobjekt reflektierte Signal ist β1, und die Phasenverschiebung für das kombinierte Signal ist ϕ1. Ebenso ist in die Phasenverschiebung für das vom Deckglas reflektierte Signal α2, die Phasenverschiebung für das vom Zielobjekt reflektierte Signal ist β2 und die Phasenverschiebung für das kombinierte Signal ist ϕ2.
  • Unter der Annahme, dass die Amplitude des kombinierten Signals vom Zielobjekt und dem Deckglas bei der ersten Modulationsfrequenz f1 ampl ist, die Amplitude des kombinierten Signals vom Zielobjekt und dem Deckglas bei der zweiten Modulationsfrequenz f2 amp2 ist, die Amplitude des vom Zielobjekt reflektierten Signals b ist und die Amplitude des vom Deckglas reflektierten Signals a ist, kann gezeigt werden, dass:
    für die erste Modulationsfrequenz f1: ( amp1 ) 2 = a2 + b2 + [ ( 2 ab cos ( α 1 β 1 ) ]
    Figure DE112019005749T5_0002
    [ a sin ( ϕ 1 + α 1 ) ] [ b sin ( β 1 - ϕ 1 ) ] = 0
    Figure DE112019005749T5_0003
    und für die zweite Modulationsfrequenz f2: ( amp2 ) 2 = a2 + b2 + [ ( 2 ab cos ( α 2 β 2 ) ]
    Figure DE112019005749T5_0004
    [ a sin ( ϕ 2 + α 2 ) ] [ b sin ( β 2 - ϕ 2 ) ] = 0
    Figure DE112019005749T5_0005
  • Wie oben erwähnt, sind die Amplituden ampl und amp2 sowie die Phasenverschiebungen ϕ1 und ϕ2 Messwerte, die das Modul 100 während eines bestimmten Messzyklus in Bezug auf ein Zielobjekt ermittelt. Außerdem sind die Phasenverschiebungsmessungen (α1, α2) zuvor gespeicherte Werte, die z. B. während der Werkskalibrierung des jeweiligen Moduls 100 erfasst wurden.
  • Die vier unbekannten Variablen (einschließlich der Amplitude ‚a‘ des vom Deckglas reflektierten Signals und der Amplitude ‚b‘ des vom Ziel reflektierten Signals) können aus den vier obigen Gleichungen (1) bis (4) bestimmt werden. Zur Schätzung der Werte der vier unbekannten Variablen (a, b, β1, β2) können verschiedene Techniken verwendet werden. Zum Beispiel kann ein iteratives Verfahren wie der Gradientenabstieg verwendet werden. Der Gradientenabstieg ist ein iterativer Optimierungsalgorithmus erster Ordnung zum Finden des Minimums einer Funktion und kann zur Lösung eines Systems nichtlinearer Gleichungen verwendet werden. Somit kann der Gradientenabstieg verwendet werden, um die Werte der unbekannten Variablen in den nichtlinearen Gleichungen (1) bis (4) zu schätzen.
  • In einigen Fällen, z. B. wenn der Bereich über der/den Blende(n) für den Lichtsender 106 und die Tiefenkamera 108 relativ klein ist, können die Schätzungen für eine kleine Teilmenge der Pixel verwendet werden, um die Werte für das gesamte Bild (d. h. für alle Pixel) zu extrapolieren. Die Untergruppe von Pixeln kann z. B. Pixel in der Nähe oder an den Ecken und in der Mitte des Pixelarrays umfassen.
  • ist ein Flussdiagramm eines Verfahrens zur Bestimmung von Tiefen-/Distanzwerten gemäß der vorliegenden Offenbarung. Wie durch 202 angedeutet, werden Messungen der Phasenverschiebungen (α1, α2) von optischen Signalen, die von der transmissiven Abdeckung (z. B. dem Deckglas) reflektiert werden, z. B. während der Kalibrierung eines Moduls 100 während der Produktion vorgenommen, und die Phasenverschiebungswerte werden in Speicher 142 (204) gespeichert. Der Speicher 142 kann in Hardware und/oder Software implementiert sein und kann Teil des Moduls selbst oder des Host-Geräts sein. Die Einbeziehung der Phasenverschiebungswerte (α1, α2) in das vorliegende Verfahren kann dazu beitragen, die Fehlerspreizung zu verringern und Fertigungsunterschiede und/oder Los-zu-Los-Unterschiede im Halbleitermaterial zu berücksichtigen.
  • Im Betrieb kann das Modul nacheinander Licht mit den ersten und zweiten Modulationsfrequenzen f1, f2 in Richtung eines Zielobjekts (206[0002]aussenden. Die Tiefenkamera 108 empfängt und erfasst optische Signale, die von dem Zielobjekt und/oder dem Deckglas 132 (208) reflektiert werden. Die erfassten Signale, von denen jedes eine Kombination aus einem optischen Signal, das vom Zielobjekt reflektiert wird, und einem optischen Signal, das vom Deckglas reflektiert wird, darstellen kann, werden der Verarbeitungsschaltung 140 zugeführt, die die gemessenen Amplituden (amp1, amp2) und die Phasenverschiebungswerte (ϕ1, ϕ2) aus den erfassten Signalen erhält und dann die Amplitude „a“ des vom Deckglas reflektierten Signals und die Amplitude „b“ des vom Zielobjekt reflektierten Signals schätzt (210).
  • Die von der Steuer- und Verarbeitungsschaltung 140 geschätzten Amplitudenwerte (‚a,‘ ‚b‘) können in einigen Fällen hochpräzise Daten liefern und dazu verwendet werden, verschiedene Komponenten des Host-Geräts zu verändern oder andere Aktionen auszulösen. Durch die Bereitstellung genauerer Tiefendaten als bei einigen früheren Techniken kann die aktuelle Offenlegung dazu beitragen, die Funktionalität des Host-Geräts zu verbessern. Beispielsweise kann der Tiefenwert/die Tiefenwerte für die Näherungserkennung verwendet werden, um zu bestimmen, ob die Helligkeit des Bildschirms des Host-Geräts angepasst werden soll (z. B. um die Helligkeit zu verringern, wenn ein Benutzer ein Smartphone für einen Sprachanruf neben sein Ohr gelegt hat). In ähnlicher Weise kann die Steuer- und Verarbeitungsschaltung 140 eine optische oder akustische Warnung an den Benutzer über das Host-Gerät ausgeben, wenn der Wert der Reflexion des Deckglases 132 darauf hinweist, dass sich auf dem Deckglas 132 ein Schmutzfleck befindet. Die Warnung kann den Benutzer darauf hinweisen, dass das Abdeckglas gereinigt werden sollte, um Verunreinigungen auf seiner Oberfläche zu entfernen.
  • Wie oben beschrieben, ist ein Beispiel für ein Host-Gerät, in Bezug auf das die hier beschriebenen Techniken verwendet werden können, ein Smartphone. Die Techniken können jedoch auch in Verbindung mit anderen Host-Geräten verwendet werden, z. B. mit Personal Digital Assistants (PDAs), Laptops, Tablet-Computern, Wearables, Biogeräten, mobilen Robotern, Überwachungskameras, Camcordern und Augmented-Reality-Brillen, um nur einige zu nennen.
  • Verschiedene Aspekte des in dieser Spezifikation beschriebenen Gegenstands und der funktionalen Abläufe können in digitalen elektronischen Schaltungen oder in Computersoftware, Firmware oder Hardware implementiert werden, einschließlich der in dieser Spezifikation offengelegten Strukturen und ihrer strukturellen Äquivalente, oder in Kombinationen aus einem oder mehreren davon. Einige Merkmale des in dieser Spezifikation beschriebenen Gegenstands können als ein oder mehrere Computerprogrammprodukte implementiert werden, d. h. als ein oder mehrere Module von Computerprogrammanweisungen, die auf einem computerlesbaren Medium zur Ausführung durch eine Datenverarbeitungsvorrichtung oder zur Steuerung des Betriebs einer Datenverarbeitungsvorrichtung codiert sind. Das computerlesbare Medium kann eine maschinenlesbare Speichervorrichtung, ein maschinenlesbares Speichersubstrat, eine Speichervorrichtung, eine Materiezusammensetzung, die ein maschinenlesbares übertragenes Signal bewirkt, oder eine Kombination aus einem oder mehreren davon sein. Die Begriffe „Datenverarbeitungsgerät“ und „Computer“ umfassen alle Geräte, Vorrichtungen und Maschinen zur Verarbeitung von Daten, einschließlich, als Beispiel, eines programmierbaren Prozessors, eines Computers oder mehrerer Prozessoren oder Computer. Die Vorrichtung kann neben der Hardware auch Code enthalten, der eine Ausführungsumgebung für das betreffende Computerprogramm schafft, z. B. Code, der eine Prozessor-Firmware, einen Protokollstapel, ein Datenbankmanagementsystem, ein Betriebssystem oder eine Kombination aus einem oder mehreren davon darstellt.
  • Ein Computerprogramm (auch als Programm, Software, Softwareanwendung, Skript oder Code bezeichnet) kann in jeder Form von Programmiersprache geschrieben werden, einschließlich kompilierter oder interpretierter Sprachen, und es kann in jeder Form eingesetzt werden, einschließlich als eigenständiges Programm oder als Modul, Komponente, Unterprogramm oder andere Einheit, die zur Verwendung in einer Computerumgebung geeignet ist. Ein Computerprogramm entspricht nicht unbedingt einer Datei in einem Dateisystem. Ein Programm kann in einem Teil einer Datei gespeichert sein, die auch andere Programme oder Daten enthält (z. B. ein oder mehrere Skripte, die in einem Markup-Sprachdokument gespeichert sind), in einer einzelnen Datei, die dem betreffenden Programm gewidmet ist, oder in mehreren koordinierten Dateien (z. B. Dateien, die ein oder mehrere Module, Unterprogramme oder Teile von Code speichern). Ein Computerprogramm kann zur Ausführung auf einem Computer oder auf mehreren Computern bereitgestellt werden, die sich an einem Standort befinden oder über mehrere Standorte verteilt und über ein Kommunikationsnetzwerk miteinander verbunden sind.
  • Die in dieser Spezifikation beschriebenen Prozesse und Logikflüsse können von einem oder mehreren programmierbaren Prozessoren ausgeführt werden, die ein oder mehrere Computerprogramme ausführen, um Funktionen auszuführen, indem sie auf Eingangsdaten arbeiten und Ausgaben erzeugen. Die Prozesse und Logikflüsse können auch von speziellen Logikschaltungen, z. B. einem FPGA (Field Programmable Gate Array) oder einem ASIC (Application Specific Integrated Circuit), ausgeführt werden, und die Vorrichtung kann auch als solche implementiert werden.
  • Zu den Prozessoren, die sich für die Ausführung eines Computerprogramms eignen, gehören z. B. sowohl allgemeine als auch spezielle Mikroprozessoren sowie ein oder mehrere Prozessoren jeder Art von Digitalcomputer. Im Allgemeinen empfängt ein Prozessor Befehle und Daten aus einem Festwertspeicher oder einem Speicher mit wahlfreiem Zugriff oder aus beiden. Die wesentlichen Elemente eines Computers sind ein Prozessor zur Ausführung von Befehlen und ein oder mehrere Speichergeräte zum Speichern von Befehlen und Daten. Im Allgemeinen enthält ein Computer auch ein oder mehrere Massenspeichergeräte zum Speichern von Daten, z. B. magnetische, magnetooptische oder optische Platten, oder ist operativ gekoppelt, um Daten von diesen zu empfangen oder Daten an diese zu übertragen, oder beides. Ein Computer muss jedoch nicht über solche Vorrichtungen verfügen. Darüber hinaus kann ein Computer in ein anderes Gerät eingebettet sein, z. B. in ein Smartphone, einen persönlichen digitalen Assistenten (PDA), einen mobilen Audio-Player, einen GPS-Empfänger (Global Positioning System), um nur einige zu nennen. Zu den computerlesbaren Medien, die zum Speichern von Computerprogrammanweisungen und -daten geeignet sind, gehören alle Formen von nichtflüchtigen Speichern, Medien und Speichervorrichtungen, darunter beispielhaft Halbleiterspeichervorrichtungen, z. B. EPROM, EEPROM und Flash-Speichervorrichtungen; Magnetplatten, z. B. interne Festplatten oder Wechseldatenträger; magnetooptische Platten; und CD-ROM- und DVD-ROM-Platten. Der Prozessor und der Speicher können durch spezielle Logikschaltungen ergänzt werden oder in diese integriert sein.
  • Es wurde eine Reihe von Implementierungen beschrieben. Dennoch können verschiedene Modifikationen vorgenommen werden, ohne vom Geist der Erfindung abzuweichen. Dementsprechend sind andere Implementierungen innerhalb des Geltungsbereichs der Ansprüche.

Claims (25)

  1. Ein Verfahren, das Folgendes umfasst: Aussenden von Licht von einem Modul mit einer ersten Modulationsfrequenz und Aussenden von Licht mit einer zweiten Modulationsfrequenz, wobei das Licht durch eine durchlässige Abdeckung in Richtung eines Ziels ausgesendet wird; Messen erster Amplituden- und Phasenverschiebungswerte, die eine Kombination aus einem vom Zielobjekt reflektierten optischen Signal und einem von der durchlässigen Abdeckung reflektierten optischen Signal als Reaktion auf das mit der ersten Modulationsfrequenz emittierte Licht darstellen; Messen von zweiten Amplituden- und Phasenverschiebungswerten, die eine Kombination eines vom Ziel reflektierten optischen Signals und eines von der durchlässigen Abdeckung reflektierten optischen Signals als Reaktion auf das mit der zweiten Modulationsfrequenz emittierte Licht darstellen; und Schätzen, unter Verwendung einer Verarbeitungsschaltung, einer Amplitude eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, und einer Amplitude eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, wobei das Schätzen zumindest teilweise auf den gemessenen ersten und zweiten Amplituden- und Phasenverschiebungswerten und auf Phasenverschiebungswerten basiert, die während der Kalibrierung des Moduls erhalten werden.
  2. Verfahren nach Anspruch 1, wobei die während der Kalibrierung des Moduls erhaltenen Phasenverschiebungswerte jeweils einen Phasenverschiebungswert für ein von der durchlässigen Abdeckung reflektiertes optisches Signal und einen Phasenverschiebungswert für ein von einem Ziel reflektiertes optisches Signal darstellen.
  3. Verfahren nach einem der Ansprüche 1 bis 2, wobei jedes der von der lichtdurchlässigen Abdeckung reflektierten optischen Signale mindestens eines von einem optischen Signal, das von der lichtdurchlässigen Abdeckung selbst reflektiert wird, oder ein optisches Signal, das von einem Fleck auf der lichtdurchlässigen Abdeckung reflektiert wird, umfasst.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das Schätzen das Lösen von vier nichtlinearen Gleichungen für Werte von vier unbekannten Variablen umfasst.
  5. Verfahren nach Anspruch 4, wobei das Schätzen die Verwendung eines iterativen Prozesses beinhaltet.
  6. Verfahren nach Anspruch 4, wobei die Schätzung die Verwendung eines Gradientenabstiegs umfasst.
  7. Das Verfahren nach einem der Ansprüche 1 bis 6 umfasst ferner das Einstellen einer Eigenschaft eines Host-Geräts, in dem das Modul angeordnet ist, in Reaktion auf einen oder mehrere der geschätzten Werte.
  8. Das Verfahren nach einem der Ansprüche 1 bis 6 umfasst ferner das Einstellen der Helligkeit eines Anzeigebildschirms in Abhängigkeit von einem oder mehreren der geschätzten Werte.
  9. Das Verfahren nach einem der Ansprüche 1 bis 6 umfasst weiterhin: Bestimmen, basierend auf dem geschätzten Wert der Amplitude des optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, dass ein Fleck auf der durchlässigen Abdeckung vorhanden sein kann, und als Reaktion auf die Feststellung, dass sich möglicherweise ein Fleck auf der durchlässigen Abdeckung befindet, die Erzeugung einer Warnmeldung veranlasst.
  10. Verfahren nach Anspruch 9, wobei der Alarm anzeigt, dass die durchlässige Abdeckung gereinigt werden sollte, um Verunreinigungen auf ihrer Oberfläche zu entfernen.
  11. Eine Vorrichtung, die Folgendes umfasst: eine durchlässige Abdeckung; Speicher, der die Phasenverschiebungswerte der Kalibrierungsstufe speichert; einen Lichtemitter, der so betrieben werden kann, dass er Licht von einem Modul mit einer ersten Modulationsfrequenz emittiert, und der so betrieben werden kann, dass er Licht mit einer zweiten Modulationsfrequenz emittiert, wobei das Licht durch die durchlässige Abdeckung in Richtung eines Ziels emittiert wird; eine Tiefenkamera, die betreibbar ist, um erste Amplituden- und Phasenverschiebungswerte zu messen, die eine Kombination eines optischen Signals, das von dem Ziel reflektiert wird, und eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, in Reaktion auf das mit der ersten Modulationsfrequenz emittierte Licht darstellen, wobei die Tiefenkamera ferner betreibbar ist, um zweite Amplituden- und Phasenverschiebungswerte zu messen, die eine Kombination eines optischen Signals, das von dem Ziel reflektiert wird, und eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, in Reaktion auf das mit der zweiten Modulationsfrequenz emittierte Licht darstellen; und eine Verarbeitungsschaltung, die betreibbar ist, um eine Amplitude eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, und eine Amplitude eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, zu schätzen, wobei das Schätzen zumindest teilweise auf den gemessenen ersten und zweiten Amplituden- und Phasenverschiebungswerten und auf den Kalibrierungsstufen-Phasenverschiebungswerten basiert.
  12. Vorrichtung nach Anspruch 11, wobei die Phasenverschiebungswerte der Kalibrierungsstufe jeweils einen Phasenverschiebungswert für ein von der durchlässigen Abdeckung reflektiertes optisches Signal und einen Phasenverschiebungswert für ein von einem Ziel reflektiertes optisches Signal darstellen.
  13. Vorrichtung nach einem der Ansprüche 11 bis 12, wobei jedes der von der durchlässigen Abdeckung reflektierten optischen Signale mindestens ein von der durchlässigen Abdeckung selbst reflektiertes optisches Signal oder ein von einem Fleck auf der durchlässigen Abdeckung reflektiertes optisches Signal umfasst.
  14. Die Vorrichtung nach einem der Ansprüche 11 bis 13, wobei die Verarbeitungsschaltung so betrieben werden kann, dass sie die Schätzung durch Lösen von vier nichtlinearen Gleichungen für Werte von vier unbekannten Variablen durchführt.
  15. Vorrichtung nach Anspruch 14, wobei die Verarbeitungsschaltung so betreibbar ist, dass sie die Schätzung unter Verwendung eines iterativen Prozesses durchführt.
  16. Vorrichtung nach Anspruch 14, wobei die Verarbeitungsschaltung so betreibbar ist, dass sie die Schätzung unter Verwendung eines Gradientenabstiegs durchführt.
  17. Die Vorrichtung nach einem der Ansprüche 11 bis 16 enthält ferner eine Steuerschaltung, die so betreibbar ist, dass sie eine Charakteristik eines Host-Geräts, in dem das Modul angeordnet ist, in Reaktion auf einen oder mehrere der geschätzten Werte einstellt.
  18. Die Vorrichtung nach einem der Ansprüche 11-16 enthält außerdem eine Steuerschaltung, die die Helligkeit eines Anzeigebildschirms in Abhängigkeit von einem oder mehreren der geschätzten Werte einstellt.
  19. Die Vorrichtung nach einem der Ansprüche 11 bis 16 enthält ferner eine Verarbeitungs- und Steuerschaltung, die so betreibbar ist, dass sie auf der Grundlage des geschätzten Werts der Amplitude des von der durchlässigen Abdeckung reflektierten optischen Signals feststellt, dass sich möglicherweise ein Fleck auf der durchlässigen Abdeckung befindet, und dass sie als Reaktion auf die Feststellung, dass sich möglicherweise ein Fleck auf der durchlässigen Abdeckung befindet, die Erzeugung eines Alarms bewirkt.
  20. Gerät nach Anspruch 19, wobei der Alarm anzeigt, dass die durchlässige Abdeckung gereinigt werden sollte, um Verunreinigungen auf ihrer Oberfläche zu entfernen.
  21. Eine Vorrichtung, die Folgendes umfasst: ein Host-Gerät; eine durchlässige Abdeckung; Speicher, der die Phasenverschiebungswerte der Kalibrierungsstufe speichert; Verarbeitungsschaltungen; und ein optoelektronisches Modul, das in die Host-Vorrichtung integriert ist, wobei das optoelektronische Modul Folgendes umfasst: einen Lichtemitter, der betreibbar ist, um Licht von einem Modul mit einer ersten Modulationsfrequenz zu emittieren, und betreibbar ist, um Licht mit einer zweiten Modulationsfrequenz zu emittieren, wobei das Licht durch die durchlässige Abdeckung in Richtung eines Ziels emittiert wird; und eine Tiefenkamera, die betreibbar ist, um erste Amplituden- und Phasenverschiebungswerte zu messen, die eine Kombination eines optischen Signals, das von dem Ziel reflektiert wird, und eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, als Reaktion auf das mit der ersten Modulationsfrequenz emittierte Licht darstellen, wobei die Tiefenkamera ferner betreibbar ist, um zweite Amplituden- und Phasenverschiebungswerte zu messen, die eine Kombination eines optischen Signals, das von dem Ziel reflektiert wird, und eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, als Reaktion auf das mit der zweiten Modulationsfrequenz emittierte Licht darstellen; wobei die Verarbeitungsschaltung betreibbar ist, um eine Amplitude eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, und eine Amplitude eines optischen Signals, das von der durchlässigen Abdeckung reflektiert wird, zu schätzen, wobei das Schätzen zumindest teilweise auf den gemessenen ersten und zweiten Amplituden- und Phasenverschiebungswerten und auf den Kalibrierungsstufen-Phasenverschiebungswerten basiert.
  22. Vorrichtung nach Anspruch 21, wobei die Phasenverschiebungswerte der Kalibrierungsstufe jeweils einen Phasenverschiebungswert für ein von der durchlässigen Abdeckung reflektiertes optisches Signal und einen Phasenverschiebungswert für ein von einem Ziel reflektiertes optisches Signal darstellen.
  23. Die Vorrichtung nach einem der Ansprüche 21-22, wobei jedes der von der durchlässigen Abdeckung reflektierten optischen Signale mindestens eines von einem optischen Signal, das von der durchlässigen Abdeckung selbst reflektiert wird, oder ein optisches Signal, das von einem Fleck auf der durchlässigen Abdeckung reflektiert wird, umfasst.
  24. Die Vorrichtung nach einem der Ansprüche 21-23, wobei die Verarbeitungsschaltung so betreibbar ist, dass sie die Schätzung unter Verwendung eines iterativen Prozesses durchführt.
  25. Vorrichtung nach Anspruch 24, wobei die Verarbeitungsschaltung so betreibbar ist, dass sie die Schätzung unter Verwendung eines Gradientenabstiegs durchführt.
DE112019005749.9T 2018-11-16 2019-11-13 Tiefenabtastung mittels optischer lichtlaufzeitverfahren durch einedurchlässige abdeckung Pending DE112019005749T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862768273P 2018-11-16 2018-11-16
US62/768,273 2018-11-16
PCT/SG2019/050560 WO2020101576A1 (en) 2018-11-16 2019-11-13 Depth sensing using optical time-of-flight techniques through a transmissive cover

Publications (1)

Publication Number Publication Date
DE112019005749T5 true DE112019005749T5 (de) 2021-08-05

Family

ID=68733590

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019005749.9T Pending DE112019005749T5 (de) 2018-11-16 2019-11-13 Tiefenabtastung mittels optischer lichtlaufzeitverfahren durch einedurchlässige abdeckung

Country Status (4)

Country Link
US (1) US20210405158A1 (de)
CN (1) CN113039457A (de)
DE (1) DE112019005749T5 (de)
WO (1) WO2020101576A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4386431A1 (de) * 2022-12-15 2024-06-19 Mettler-Toledo GmbH Verfahren zur diagnose einer fehlerhaften abstandsmessung einer laserentfernungsmesseinheit, laserentfernungsmesseinheit und computerprogramm

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10620300B2 (en) 2015-08-20 2020-04-14 Apple Inc. SPAD array with gated histogram construction
EP3646057A1 (de) 2017-06-29 2020-05-06 Apple Inc. Flugzeittiefenkartierung mit parallaxkompensation
US10955552B2 (en) 2017-09-27 2021-03-23 Apple Inc. Waveform design for a LiDAR system with closely-spaced pulses
US10908383B1 (en) 2017-11-19 2021-02-02 Apple Inc. Local control loop for projection system focus adjustment
CN111465870B (zh) 2017-12-18 2023-08-29 苹果公司 使用可寻址发射器阵列的飞行时间感测
EP3887852A1 (de) 2019-02-11 2021-10-06 Apple Inc. Tiefenabtastung mit einer spärlichen anordnung von gepulsten strahlen
US11500094B2 (en) 2019-06-10 2022-11-15 Apple Inc. Selection of pulse repetition intervals for sensing time of flight
US11555900B1 (en) 2019-07-17 2023-01-17 Apple Inc. LiDAR system with enhanced area coverage
US11733359B2 (en) 2019-12-03 2023-08-22 Apple Inc. Configurable array of single-photon detectors
FR3121205B1 (fr) * 2021-03-29 2023-05-05 St Microelectronics Sa Estimation d’un décalage de distance dans un dispositif de mesure indirecte par temps de vol, et dispositif correspondant
US11681028B2 (en) 2021-07-18 2023-06-20 Apple Inc. Close-range measurement of time of flight using parallax shift
CN115980718B (zh) * 2023-03-06 2023-06-06 北醒(北京)光子科技有限公司 镜头脏污检测方法、装置、电子设备及可读存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6073786B2 (ja) * 2010-07-29 2017-02-01 ワイカトリンク リミテッド 対象物の距離特性および/または輝度特性を測定する装置および方法
US9325920B2 (en) * 2012-01-10 2016-04-26 Softkinetics Sensors Nv Processing of time-of-flight signals
CN106104297B (zh) * 2014-03-14 2020-06-30 赫普塔冈微光有限公司 可操作以识别虚假反射并补偿由虚假反射导致的误差的光电模块
US9823352B2 (en) * 2014-10-31 2017-11-21 Rockwell Automation Safety Ag Absolute distance measurement for time-of-flight sensors
US10191154B2 (en) * 2016-02-11 2019-01-29 Massachusetts Institute Of Technology Methods and apparatus for time-of-flight imaging
US10295657B2 (en) * 2016-08-29 2019-05-21 Ams Sensors Singapore Pte. Ltd. Time of flight-based systems operable for ambient light and distance or proximity measurements
US10466355B2 (en) * 2016-08-29 2019-11-05 Ams Sensors Singapore Pte. Ltd. Optoelectronic modules for distance measurements and supplemental measurements
US10416296B2 (en) * 2016-10-19 2019-09-17 Infineon Technologies Ag 3DI sensor depth calibration concept using difference frequency approach

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4386431A1 (de) * 2022-12-15 2024-06-19 Mettler-Toledo GmbH Verfahren zur diagnose einer fehlerhaften abstandsmessung einer laserentfernungsmesseinheit, laserentfernungsmesseinheit und computerprogramm

Also Published As

Publication number Publication date
US20210405158A1 (en) 2021-12-30
WO2020101576A1 (en) 2020-05-22
CN113039457A (zh) 2021-06-25

Similar Documents

Publication Publication Date Title
DE112019005749T5 (de) Tiefenabtastung mittels optischer lichtlaufzeitverfahren durch einedurchlässige abdeckung
DE69926659T2 (de) Verfahren und vorrichtung für die optische Inspektion von Objekten auf einem Substrat
US11536804B2 (en) Glare mitigation in LIDAR applications
US10901090B2 (en) TOF camera system and a method for measuring a distance with the system
DE112010002843T5 (de) Oberflächenverfolgung auf Bildbasis
DE102014108310B4 (de) Optisches Laufzeitsystem
DE102018107801A1 (de) Lichtlaufzeitkamera
DE102005004113A1 (de) Vorrichtung, Verfahren und Programm zum Erzeugen von Bereichsbilddaten
DE102005013555A1 (de) Radarvorrichtung
DE19612464A1 (de) Distanzmeßgerät mit der Fähigkeit zur Messung mehrerer Distanzdaten für berechnete Winkelbereiche
DE112012007096T5 (de) Trackereinheit und Verfahren in einer Trackereinheit
EP2159603B1 (de) Objektfeststellungsverfahren und Objektfeststellungssensor
US20210148694A1 (en) System and method for 3d profile determination using model-based peak selection
DE102018129246A1 (de) Interferenzdetektierung und -minderung für lidarsysteme
JPWO2017126377A1 (ja) 受光装置、制御方法、及び、電子機器
CN110986816B (zh) 一种深度测量系统及其测量方法
DE112019007925T5 (de) Objekt-Erkennungsvorrichtung und Objekt-Erkennungsverfahren
Karel Integrated range camera calibration using image sequences from hand-held operation
CN100359286C (zh) 图像处理提高激光测量精度的方法
Godbaz et al. Mixed pixel return separation for a full-field ranger
EP1211480A2 (de) Elektrooptisches Messgerät zum Feststellen der Relativlage von Körpern oder von Oberflächenbereichen solcher Körper
DE112021004793T5 (de) Vorrichtung für dreidimensionale Messungen
DE102009040991B4 (de) Messanordnung und Verfahren zum Vermessen einer Oberfläche
EP4202477A2 (de) Lidar-steuerungsverfahren, endgerätevorrichtung und computerlesbares speichermedium
WO2020196257A1 (ja) 測距方法、測距装置、及び、プログラム

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE