DE102017205743A1 - Lichtlaufzeitkamera - Google Patents

Lichtlaufzeitkamera Download PDF

Info

Publication number
DE102017205743A1
DE102017205743A1 DE102017205743.2A DE102017205743A DE102017205743A1 DE 102017205743 A1 DE102017205743 A1 DE 102017205743A1 DE 102017205743 A DE102017205743 A DE 102017205743A DE 102017205743 A1 DE102017205743 A1 DE 102017205743A1
Authority
DE
Germany
Prior art keywords
psf
light
image
point spread
spread function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017205743.2A
Other languages
English (en)
Inventor
Stephan Ulrich
Lutz Heyne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PMDtechnologies AG
Original Assignee
PMDtechnologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PMDtechnologies AG filed Critical PMDtechnologies AG
Priority to DE102017205743.2A priority Critical patent/DE102017205743A1/de
Publication of DE102017205743A1 publication Critical patent/DE102017205743A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zur Ermittlung einer Punktspreizfunktion (PSF) für eine Lichtlaufzeitkamera (20) eines Lichtlaufzeitkamerasystems (1),
bei dem mit Hilfe der Lichtlaufzeitkamera (20) ein erstes 3D-Bild I1(x) einer Referenzszene und ein zweites 3D-Bild I2(x) mit einem Objekt (40) im Vordergrund der Referenzszene erfasst wird,
wobei das zweite 3D-Bild I2(x) oder zumindest einen Teilbereich des zweiten 3D-Bilds I2(x) mit Hilfe einer Punktspreizfunktion korrigiert wird,
und ausgehend von einem Unterschied zwischen dem ersten und dem korrigierten zweiten 3D-Bild I'2(x) Parameter der Punktspreizfunktion solange verändert werden, bis der Unterschied zwischen beiden Bildern (I1(x), I'2(x)) zumindest in den ausgewählten Teilbereichen minimal ist und/oder einen Grenzwert unterschreitet,
die sich so ergebende Punktspreizfunktion kann als Korrektur-Punktspreizfunktion weiter verwendet werden.

Description

  • Die Erfindung befasst mit einer Lichtlaufzeitkamera und einem Verfahren zur Erfassung einer Punktspreizfunktion zur Korrektur der ermittelten Signale eines Lichtlaufzeitsensors.
  • Lichtlaufzeitkamera bzw. Lichtlaufzeitkamerasysteme betreffen insbesondere alle Lichtlaufzeit- bzw. 3D-TOF-Kamerasysteme, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit- bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie beispielsweise in der DE 197 04 496 C2 beschrieben und von der Firma ‚ifm electronic GmbH‘ oder ‚pmdtechnologies ag‘ als Frame-Grabber O3D bzw. als CamCube zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
  • Aufgabe der Erfindung ist es, die Kompensation von Phasenfehlern weiter zu verbessern.
  • Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Lichtlaufzeitkamerasystem nach Gattung der unabhängigen Ansprüche gelöst.
  • Besonders vorteilhaft ist ein Verfahren zur Ermittlung einer Punktspreizfunktion für eine Lichtlaufzeitkamera eines Lichtlaufzeitkamerasystems vorgesehen,
    bei dem mit Hilfe der Lichtlaufzeitkamera ein erstes 3D-Bild I1(x) einer Referenzszene und ein zweites 3D-Bild I2(x) mit einem Objekt im Vordergrund der Referenzszene erfasst wird, wobei das zweite 3D-Bild I2(x) oder zumindest einen Teilbereich des zweiten 3D-Bilds I2(x) mit Hilfe einer Punktspreizfunktion korrigiert wird,
    und ausgehend von einem Unterschied zwischen dem ersten und dem korrigierten zweiten 3D-Bild I'2(x) Parameter der Punktspreizfunktion solange verändert werden, bis der Unterschied zwischen beiden Bildern (I1(x), I'2(x)) zumindest in den ausgewählten Teilbereichen minimal ist und/oder einen Grenzwert unterschreitet,
    die sich so ergebende Punktspreizfunktion kann als Korrektur-Punktspreizfunktion weiter verwendet werden.
  • Dieses Vorgehen ermöglicht eine schnelle Ermittlung einer Punktspreizfunktion anhand einer einfachen Referenzszene
  • Besonders vorteilhaft ist eine Lichtlaufzeitkamera für ein Lichtlaufzeitkamerasystem vorgesehen, mit einem Lichtlaufzeitsensor mit mehreren Lichtlichtlaufzeitpixeln zur Ermittlung einer Phasenverschiebung eines ausgesendeten und empfangenen Lichts, wobei ausgehend von den erfassten Phasenverschiebungen Entfernungswerte ermittelt werden, wobei die Lichtlaufzeitkamera einen Speicher aufweist, in dem zumindest Parameter einer Korrektur-Punktspreizfunktion, die nach dem vorgenannten Verfahren ermittelt wurde, abgelegt sind, wobei die Punktspreizfunktion ein Streulichtverhalten und ein Signalübersprechen der Lichtlaufzeitkamera und des Lichtlaufzeitsensors berücksichtigt, mit einer Auswerteeinheit, die derart ausgestaltet ist, dass anhand der abgelegten Korrektur-Punktspreizfunktion ein erfasstes Bild entfaltet und ein korrigiertes Bild ermittelt wird, und dass die Ermittlung der Phasenverschiebungen bzw. Entfernungswerte anhand des korrigiertes Bilds erfolgt.
  • Vorzugsweise ist die Punktspreizfunktion komplexwertig.
  • Nützlich ist es ferner, wenn die Entfaltung des erfassten Bilds und der abgelegten Punktspreizfunktion im Fourierraum erfolgt.
  • Vorzugsweise ist die Punktspreizfunktion als Matrix oder Lookup-Table und/oder als Fouriertransformierte im Speicher abgelegt ist.
  • In einer weiteren Ausgestaltung ist es vorgesehen, die Punktspreizfunktion auf einem externen Gerät zu speichern und die Korrektur der Phasenverschiebungen oder Entfernungswerte auf dem externen Gerät durchzuführen.
  • Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
  • Es zeigen:
    • 1 schematisch ein Lichtlaufzeitkamerasystem,
    • 2 eine modulierte Integration erzeugter Ladungsträger,
    • 3 ein Aufbau zur Ermittlung einer Punktspreizfunktion,
    • 4 einen Querschnitt von Bildern zu Ermittlung einer Punktspreizfunktion
    • 5 eine Erfassung einer Referenzszene,
    • 6 eine Erfassung eines Objekts vor der Referenzszene,
    • 7 gemessene Distanzwerte nach 6 in Relation zu den tatsächlichen Distanzen,
    • 8 eine Erfassung von zwei Referenzflächen mit unterschiedlichem Abstand,
    • 9 gemessene Distanzwerte nach 8 in Relation zu den tatsächlichen Distanzen,
    • 10 einen möglichen schematischen Ablauf der Streulichtkorrektur im Sinne der Erfindung.
  • Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
  • 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer Lichtlaufzeitkamera, wie sie beispielsweise aus der DE 197 04 496 A1 bekannt ist.
  • Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem Lichtlaufzeitsensor 22.
  • Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel-Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.
  • Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Lichtlaufzeitsensor 22 über einen Modulator 30 gemeinsam mit einem bestimmten Modulationssignal Mo mit einer Basisphasenlage φ0 beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φ0 des Modulationssignals M0 der Lichtquelle 12 um definierte Phasenlagen φvar verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von φvar = 0°, 90°, 180°, 270° verwendet.
  • Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein intensitätsmoduliertes Signal Sp1 mit der ersten Phasenlage p1 bzw. p1 = φ0 + φvar aus. Dieses Signal Sp1 bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke 2d, bzw. der Lichtlaufzeit tL , phasenverschoben Δφ(tL) mit einer zweiten Phasenlage p2 = φ0 + φvar + Δφ(tL) als Empfangssignal Sp2 auf den Lichtlaufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal Mo mit dem empfangenen Signal Sp2 gemischt, wobei aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.
  • Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden oder Oberflächenemitter (VCSEL). Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.
  • Das Grundprinzip der Phasenmessung ist beispielhaft schematisch in 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals Mo mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal Sp2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(tL) auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals M0 in einem ersten Integrationsknoten Ga und in einer um 180° verschobenen Phasenlage in einem zweiten Integrationsknoten Gb. Für diese Lenkung der Ladungen auf die Integrationsknoten weisen die Pixel 23 des Lichtlaufzeitsensors 22 wenigstens zwei Modulationsgates Gam, Gbm auf, die in Abhängigkeit der anliegenden Modulationssignale die Ladungen zum ersten oder zweiten Integrationsknoten Ga, Gb lenken. Aus dem Unterschied der im ersten und zweiten Integrationsknoten Ga, Gb gesammelten Ladungen qa, qb unter Berücksichtigung aller Phasenlagen φvar lässt sich die Phasenverschiebung Δφ(tL) und somit eine Entfernung d des Objekts bestimmen.
  • 3 zeigt schematisch einen Aufbau zur Ermittlung einer Punktspreizfunktion PSF. Hier kann die Lichtquelle 112 und der Lichtlaufzeitsensor 22 unmoduliert oder mit wenigstens einer vorgegebenen Modulationsfrequenz betrieben werden. Bei der Verwendung eines unmodulierten Lichts ist es von Vorteil, wenn auch der Lichtlaufzeitsensor 22 bzw. die Pixel 23 unmoduliert betrieben werden. Hierbei ist es hilfreich, wenn an den Modulationsgates Gam, Gbm der Pixel 23 ein konstante Spannung derart anliegt, dass die photogenerierten Ladungen vornehmlich nur in einem Integrationsknoten Ga, Gb gesammelt werden.
  • Zur Bestimmung der PSF ist es günstig, wenn die Lichtquelle 112 im Wesentlichen nur ein einziges Pixel 23 vorzugsweise weniger als 3x3 und insbesondere weniger als 5x5 Pixel 23 des Lichtlaufzeitsensors 22 beleuchtet. Zur Bereitstellung eines solchen Lichtpunkts ist vor der Lichtquelle 112 eine Blende 150 mit einer hinreichend kleinen Blendenöffnung 152 vorgesehen. Das aus der Blende 150 austretende originäre Lichtsignal I0 wird durch eine Vielzahl von Einflüssen auf dem Weg zum Sensor bis hin zum erfassten Bildsignal I(x) beeinflusst, beispielsweise durch Eigenschaften des optischen System bzw. der Optik 25 oder Reflektionen zwischen Sensor 22 und der Optik 25. Auch spielen intrinsische Eigenschaften des Sensors 22 selbst eine Rolle, wie zum Beispiel ein Signalübersprechen oder eine Elektronendiffusion zwischen den Pixeln 23. Im Ergebnis kann das am Sensor erfasste Bildsignal I(x) als Faltung zwischen dem einkommenden Licht I0 und einer Punktspreizfunktion PSF, die im Wesentlichen alle Eigenschaften des Gesamtsystems umfasst, betrachtet werden. Aufgrund der singulären Beleuchtung eines oder ein paar weniger Pixel entspricht das erfasste Bildsignal I(x) im Wesentlichen der Punktspreizfunktion PSF. Für die Ermittlung der Punktspreizfunktion werden vorzugsweise alle Pixel ausgewertet. Grundsätzlich ist es jedoch auch denkbar, nur einen Teilbereich um das singulär beleuchtete Pixel auszuwerten.
  • Die Qualität der Punktspreizfunktion PSF lässt sich bei Bedarf verbessern, wenn mehrere Punktspreizfunktionen anhand mehrerer singulär beleuchteter Pixel 23 ermittelt werden. Beispielsweise ist es sinnvoll, auch Pixel 23 außerhalb der optischen Achse zu beleuchten um an diesen Positionen weitere Punktspreizfunktionen zu ermitteln. Ausgehend von den ermittelten Punktspreizfunktionen kann dann eine Punktspreizfunktion ermittelt werden, die für die späteren Korrekturen herangezogen werden soll.
  • Da die erwähnte Elektronendiffusion typischerweise mit einer Diffusionsgeschwindigkeit erfolgt, die signifikant geringer ist als die Lichtausbreitung, erreichen die Elektronen benachbarte Pixel zeitverzögert, so dass sich der Einfluss der Elektronendiffusion auch als Phasenverschiebung bemerkbar macht. Die Punktspreizfunktion PSF erhält somit auch komplexwertige Anteile. Zur genaueren Bestimmung dieser Größen ist es daher von Vorteil, die Lichtquelle 112 in verschiedenen Phasenlagen zu betreiben.
  • Da eine Punktspreizfunktion typischerweise einen hohe Dynamik über mehrere Zehnerpotenzen aufweist, ist es zur Erfassung der PSF ferner von Vorteil, die Punktlichtquelle 112 mit unterschiedlichen Intensitäten und/oder den Sensor 22 mit unterschiedlichen Integrationszeiten zu betreiben.
  • Zur Kompensation von Dunkelströmen ist es hilfreich, Bildsignale I(x) sowohl bei ein- und ausgeschalteter Lichtquelle 112 zu erfassen.
  • Aus der Summe aller Messungen kann dann ein Modell einer Punktspreizfunktion generiert werden, das für alle Pixel 23 anwendbar ist.
  • Ein solches Modell kann entsprechend folgender Überlegungen generiert werden: Da die gemessene PSF rauschbehaftet ist und beispielsweise Artefakte enthalten kann, die sehr spezifisch für die Pixelposition auf dem Sensor sind, erhält man eine „saubere“ PSF beispielsweise durch einen Fit der gemessenen PSF an ein geeignetes Modell. Als Modell eignen sich z.B. PSF ( x ) = A ( x ) + B ( x p B )
    Figure DE102017205743A1_0001
    wobei beispielsweise A ( x ) = A 0  exp ( s ( x p ) )
    Figure DE102017205743A1_0002
    gewählt werden kann.
  • Hierbei bezeichnet x
    Figure DE102017205743A1_0003
    den Entfernungsvektor vom Zentralpixel x 0
    Figure DE102017205743A1_0004
    der PSF in Pixeln und x p = ( x 1 p + x 2 p ) 1 / p
    Figure DE102017205743A1_0005
    die p-Norm von x . p = 2
    Figure DE102017205743A1_0006
    ergäbe z.B. eine exakt radialsymmetrische PSF. Da die PSF nicht unbedingt radialsymmetrisch ist, sondern z.B. rautenförmig sein kann, kann p ≠ 2 bessere Ergebnisse liefern. Durch geeignete Wahl der p-Norm können somit Anisotropien der PSF berücksichtigt werden.
  • Da das meiste Licht auf den Zentralpixel der PSF fällt, ist es hilfreich, dem Modell eine örtlich schmale Funktion B(r) hinzuzufügen, die diesen Anteil wiederspiegelt. Dies kann z.B. ein Dirac-Delta, oder eine Gauß-Funktion sein, die beispielsweise die Linsenunschärfe beschreibt.
  • Aus Effizienzgründen ist es von Vorteil, die PSF beispielsweise in Form einer Spline-Kurve zu beschreiben. Um Phasenverschiebungen mit dieser PSF zu beschreiben, kann der Spline beispielsweise neben dem Realteil auch einen komplexwertigen Anteil haben. Dadurch wird auch die PSF komplexwertig. Geeignete Fitting-Parameter sind dann beispielsweise die Werte an den Knoten der Splines, die Norm-Parameter p und pB, sowie Parameter, die die Form von B(r) angeben. Anstatt die komplette PSF abzuspeichern, ist es von Vorteil, lediglich die nötigen Parameter abzuspeichern, um bei der Initialisierung der Software die PSF aus diesen Parametern zu generieren.
  • Im laufenden Betrieb der Lichtlaufzeitkamera besteht dann die Möglichkeit anhand der hinterlegten Parameter und der daraus genierten PSF die Distanzwerte hinsichtlich Streulichteinflüsse zu bereinigen.
  • Mit Hilfe des beschriebenen Aufbaus wird vorzugsweise ein erstes Bild I ˜ k ( x )
    Figure DE102017205743A1_0007
    mit kurzer Belichtungszeit tk aufgenommen. Konkret ist die Belichtungszeit so zu wählen, dass keiner der Pixel in Sättigung ist. Für den Fall, dass moduliertes Licht verwendet wird, darf kein Pixel der erhaltenen Rohbilder gesättigt sein.
  • Außerdem wird ein zweites Bild I ˜ l ( x )
    Figure DE102017205743A1_0008
    mit langer Belichtungszeit tl, aufgenommen. Hier ist die Belichtungszeit so zu wählen, dass der von Streulicht und/oder crosstalk/Signalübersprechen verursachte Anteil der PSF möglichst vollständig sichtbar, also nicht von Rauschen beeinträchtigt ist. Die Belichtungszeit ist hier typischerweise 1000-10000 mal größer als im ersten Bild.
  • Bei den Aufnahmen kann entweder unmoduliertes Licht verwendet werden oder Lichtquelle und Sensor können auf übliche Weise moduliert werden. In letzterem Fall sind die Bilder I ˜ k ( x )  und  I ˜ l ( x )
    Figure DE102017205743A1_0009
    wie üblich komplexwertig, enthalten also Phaseninformationen, die die Zeit vom Aussenden des Lichts bis zum Aufnehmen der erzeugten Elektronen an den Gates des Sensors wiederspiegelt.
  • Für beide Bilder kann es hilfreich sein, anstatt eines Bildes eine Serie von Bildern aufzunehmen und diese zu mitteln, um das Rauschen weiter zu reduzieren.
  • Um konsistente Werte zwischen dem ersten und zweiten Bild zu erlangen, werden beispielsweise die Helligkeiten (oder Amplituden) mit den unterschiedlichen Integrationszeiten normiert: I l ( x ) = I ˜ l ( x ) / t l I k ( x ) = I ˜ k ( x ) / t k
    Figure DE102017205743A1_0010
  • Auf den erhaltenen Bildern ist i.A. die genaue Position des beleuchteten Zentralpixels x 0
    Figure DE102017205743A1_0011
    noch unbekannt. Um die Position des Zentralpixels x 0
    Figure DE102017205743A1_0012
    zu bestimmen, wird das erste Bild I k ( x )
    Figure DE102017205743A1_0013
    beispielsweise mit Hilfe eines Schwellwertverfahrens binarisiert, wodurch der helle LED-Spot in einer zusammenhängenden Fläche resultieren sollte.
  • Das Zentrum der zusammenhängenden Fläche, ist eine gute Schätzung für das Zentralpixel bzw. den Zentralpunkt x 0
    Figure DE102017205743A1_0014
    auf dem Sensor, auf den die Lichtquelle gerichtet ist. Dieser Zentralpunkt x 0
    Figure DE102017205743A1_0015
    muss nicht notwendigerweise auf die Mitte eines Pixels fallen, d.h. die gefundene Position für den Zentralpunkt x 0
    Figure DE102017205743A1_0016
    muss nicht ganzzahlig sein.
  • Nun wird das Bild I k ( x )
    Figure DE102017205743A1_0017
    der kurzen Belichtung an das Modell eines scharfen Spots gefittet. Ein solches Modell ist beispielsweise in Gleichung (1) mit B ( x p )
    Figure DE102017205743A1_0018
    bezeichnet. Konkret wird hierbei ( P B , p B ) = arg min P B , p B ( x | I k ( x ) B ( x x 0 p B ) | 2 )
    Figure DE102017205743A1_0019
    bestimmt, wobei PB die Parameter der Funktion B(r) und pB der Parameter der Norm sind. Beispielsweise könnte B(r) = B0 expe (-br2) gewählt werden, wobei dann PB = (B0, b) würde.
  • Für die numerische Minimierung gemäß Gleichung (4) gibt es zahlreiche Algorithmen, wie z.B. das Nelder-Mead-Verfahren.
  • Zusätzlich zu PB und pB kann es auch bessere Ergebnisse liefern, in Gleichung (4) das Zentrum x 0
    Figure DE102017205743A1_0020
    der Lichtquelle mit in die Optimierung aufzunehmen. Dann würde der zuvor gefundene Wert aus dem binarisierten Bild sich als Startwert eignen.
  • Nun wird das zweite Bild I l ( x )
    Figure DE102017205743A1_0021
    mit der langen Belichtungszeit betrachtet. Analog zu Gleichung (4) wird das Bild an das Modell der Streulichtsignatur, A ( x )
    Figure DE102017205743A1_0022
    in Gleichung (1), gefittet: ( P A , p A ) = arg min P A , p A ( x | I l ( x ) A ( x x 0 ) | 2 )
    Figure DE102017205743A1_0023
  • Bei Bedarf kann der zentrale Anteil der PSF, der durch B(r) beschrieben wird unberücksichtigt bleiben.
  • Analog zum ersten Fit sind hier PA die Parameter der Modellfunktion A ( r ) .
    Figure DE102017205743A1_0024
    Als zweckdienlich erweist sich z.B. eine Funktion der Form: A ( r ) = A 0  exp ( s ( r p A ) + i Φ ( r ) )
    Figure DE102017205743A1_0025
    wobei s(r) und eine (reelle) Spline-Kurve darstellt. Die Funktion Φ ( r )
    Figure DE102017205743A1_0026
    beschreibt eine Phasenverzögerung des einfallenden Lichtspots, wie sie beispielsweise durch Phase-Crosstalk/Signalübersprechen zwischen den Pixel verursacht werden kann. Da dieser nicht zwingend isotrop ist, kann es nötig sein, Φ ( r )
    Figure DE102017205743A1_0027
    als zweidimensionale Funktion (z.B. einen 2D-Spline oder eine 2D-Look-up-Table) zu modellieren, anstatt wie für s(r) eine radial symmetrische Funktion anzunehmen.
  • Die Fit-Parameter PA sind in diesem Fall A0, pA, sowie die Funktionswerte der Splines an den Knotenpunkten. Nach Bedarf kann die Lage der Knotenpunkte ebenfalls Teil der Fit-Parameter PA sein.
  • Mit den erhaltenen Parametern PA und PB, sowie dem PSF-Modell beispielsweise nach Gleichung (1) ist es nun möglich, eine artefaktfreie und nicht rauschbehaftete PSF zu generieren. Anstatt die komplette PSF abzuspeichern, ist es von Vorteil, lediglich diese oder andere geeignete Parameter abzuspeichern, aus denen bei der Initialisierung der Software die PSF generiert werden kann.
  • Bevorzugt ist es vorgesehen, die mit unterschiedlichen Belichtungszeiten erfassten Aufnahmen getrennt voneinander zu bearbeiten: PSF ( x ) = A 1 ( x ) + A 2 ( x ) +
    Figure DE102017205743A1_0028
  • Die Teil-Modelle A 1 ( x ) , A 2 ( x ) ,
    Figure DE102017205743A1_0029
    können beispielsweise unterschiedlichen Dynamikbereichen der PSF entsprechen und jeweils getrennt voneinander an Aufnahmen I 1 ( x ) , I 2 ( x ) ,
    Figure DE102017205743A1_0030
    gefittet werden. Ausgehend von diesen Fit-Parameter kann dann die PSF gemäß Gleichung (7) zusammengefasst werden.
  • Im Vorgenannten wurde die Kalibrierung anhand einer Punktlichtquelle mit Blende als Lichtquelle bzw. Lichtquellensystem beschrieben. Selbstverständlich ist die Kalibrierung nicht auf eine solche Lichtquelle eingeschränkt, sondern es kommen alle Lichtquellen oder Lichtsysteme in Betracht, die einen geeigneten Lichtpunkt erzeugen können.
  • 4 bis 9 zeigen weitere Methoden zur Bestimmung einer geeigneten Punktspreizfunktion PSF. In der Methode gemäß 4 werden ein erstes 3D-Bild I1(x) einer Referenzszene und ein zweites 3D-Bild I2(x) mit einem Objekt 40 im Vordergrund der Referenzszene erfasst. Wie bereits besprochen ist aufgrund systemischer Einflüsse eine Veränderung der aus dem ersten 3D-Bild I1(x) bekannten Distanzwerte zu erwarten. Zur Ermittlung einer für die Korrektur geeigneten Punktspreizfunktion werden dann Parameter einer ersten modellhaften PSF solange variiert, bis Unterschiede zwischen dem ersten und zweiten Bild, insbesondere Distanzfehler minimal sind bzw. kleiner sind als ein tolerierter Grenzwert. Hierbei werden vorzugsweise nur die Bildbereiche oder ein Teilbereich davon berücksichtigt, bei denen die Referenzszene in beiden Bildern sichtbar ist.
  • Die Bilder können beispielsweise wie in 5 und 6 gezeigt aufgenommen werden. In einem ersten Schritt wird ein erstes 3D-Bild I1(x) einer Referenzszene erfasst (5). Als Referenzszene kann beispielsweise in einfacher Art und Weise eine Wand oder ein Boden erfasst werden, grundsätzlich können kann jedoch auch beliebige Szenen mit einem beliebigen Höhenprofil erfasst werden. Im zweiten Schritt gemäß 6 wird ein Objekt oberhalb der Referenzszene angeordnet, beispielsweise eine Hand oder ein anderes Objekt, und ein zweites Entfernungsbild I2(x) erfasst. Auch hier sind die Eigenschaften des Objekts im Wesentlichen unkritisch. Wie zur 4 beschrieben kann dann anhand der Differenz beider Bilder eine Korrektur-PSF generiert werden.
  • In 7 ist eine Variante gezeigt, bei der die Referenzszene und das Objekt eben und planparallel zueinander angeordnet sind. Anhand eines solchen Vorwissens, lässt sich die Optimierung der PSF ggf. vereinfachen.
  • Alternativ ist es beispielsweise möglich, statt zwei Bilder nur ein Bild von einem Target in hinreichender Distanz von einer flachen Referenzszene bzw. -ebene (z.B. Wand, Tisch, Boden) zu erfassen. Zur Bestimmung der PSF werden nun die Parameter solange variiert, bis die Referenzfläche hinter dem Target möglichst eben ist, bzw. die Abweichungen der korrigierten Referenzfläche von einer Ebene kleiner sind, als ein tolerierter Grenzwert.
  • Besonders vorteilhaft ist es, wenn die Dimensionen und Abstände der Referenzszene und/oder des eingebrachten Targets im Vorfeld bekannt sind.
  • 8 und 9 zeigen eine weitere Variante zu dem vorgenannten Vorgehen. Das in 8 dargestellte Objekt 40 weist eine in der Höhe definierte Stufe auf. Die Höhe Δd = dT2 - dT1 ist vorzugsweise vorbekannt. Ebenso wie im vorgenannten Beispiel werden die Parameter eines PSF-Modells solange variiert bis der Distanzfehler minimal wird oder unterhalb eines tolerierten Grenzwertes liegt.
  • Die vom Sensor gemessenen Rohbilder Dj (z.B. j = 0,1,2,3 entsprechend der Phasenlagen 0°, 90°, 180°, 270°) sind, mathematisch gesehen, eine Faltung der unbekannten, nicht Streulichtverfälschten Rohbildern D j 0
    Figure DE102017205743A1_0031
    mit der PSF: D j ( x ) = Δ x D j 0 ( x Δ x ) PSF ( Δ x )
    Figure DE102017205743A1_0032
  • Interessant für die Weiterverarbeitung sind die komplexwertigen Bilder I ( x ) : = ( D 0 ( x ) D 2 ( x ) ) + i ( D 1 ( x ) D 3 ( x ) )
    Figure DE102017205743A1_0033
  • Da die Faltung eine lineare Operation ist, gilt analog für I(x) und das nicht-streulichtverfälschte komplexwertige Bild I0 (x): I ( x ) = Δ x I 0 ( x Δ x ) PSF ( Δ x )
    Figure DE102017205743A1_0034
    bzw. I ( x ) = I 0 ( x ) PSF ( x )
    Figure DE102017205743A1_0035
  • Die Entfaltung wird im Fourier-Raum durchgeführt. Dazu werden I(x) und die PSF Fouriertransformiert ( F [ ] ) : I ^ ( k ) = F [ I ( x ) ]  und  PSF ^ ( k ) = F [ PSF ( x ) ] .
    Figure DE102017205743A1_0036
    Gleichung 4 wird damit zu: I ^ ( k ) = I ^ 0 ( k ) PSF ^ ( k )
    Figure DE102017205743A1_0037
    und daher I ^ 0 ( k ) = I ^ ( k ) PSF ^ ( k )
    Figure DE102017205743A1_0038
  • Damit erhält man das nicht-streulichtverfälschte Bild I 0 ( x ) = F 1 [ I ^ 0 ( k ) ]
    Figure DE102017205743A1_0039
  • Bezugszeichenliste
  • 1
    Lichtlaufzeitkamerasystem
    10
    Beleuchtungsmodul
    12
    Beleuchtung
    15
    Strahlformungsoptik
    20
    Empfänger, Lichtlaufzeitkamera
    22
    Lichtlaufzeitsensor
    30
    Modulator
    35
    Phasenschieber, Beleuchtungsphasenschieber
    40
    Objekt
    φ, Δφ(tL)
    laufzeitbedingte Phasenverschiebung
    φvar
    Phasenlage
    φ0
    Basisphase
    M0
    Modulationssignal
    p1
    erste Phase
    p2
    zweite Phase
    Sp1
    Sendesignal mit erster Phase
    Sp2
    Empfangssignal mit zweiter Phase
    tL
    Lichtlaufzeit
    Ga, Gb
    Integrationsknoten
    d
    Obj ektdistanz
    q
    Ladung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19704496 C2 [0002]
    • DE 19704496 A1 [0015]

Claims (7)

  1. Verfahren zur Ermittlung einer Punktspreizfunktion (PSF) für eine Lichtlaufzeitkamera (20) eines Lichtlaufzeitkamerasystems (1), bei dem mit Hilfe der Lichtlaufzeitkamera (20) ein erstes 3D-Bild I1(x) einer Referenzszene und ein zweites 3D-Bild I2(x) mit einem Objekt (40) im Vordergrund der Referenzszene erfasst wird, wobei das zweite 3D-Bild I2(x) oder zumindest einen Teilbereich des zweiten 3D-Bilds I2(x) mit Hilfe einer Punktspreizfunktion korrigiert wird, und ausgehend von einem Unterschied zwischen dem ersten und dem korrigierten zweiten 3D-Bild I'2(x) Parameter der Punktspreizfunktion solange verändert werden, bis der Unterschied zwischen beiden Bildern (I1(x), I'2(x)) zumindest in den ausgewählten Teilbereichen minimal ist und/oder einen Grenzwert unterschreitet, die sich so ergebende Punktspreizfunktion kann als Korrektur-Punktspreizfunktion weiter verwendet werden.
  2. Lichtlaufzeitkamera (20) für ein Lichtlaufzeitkamerasystem (1), mit einem Lichtlaufzeitsensor (22) mit mehreren Lichtlichtlaufzeitpixeln (23) zur Ermittlung einer Phasenverschiebung eines ausgesendeten und empfangenen Lichts (Sp2), wobei ausgehend von den erfassten Phasenverschiebungen (Δφ) Entfernungswerte (d) ermittelt werden, wobei die Lichtlaufzeitkamera (20) einen Speicher aufweist, in dem zumindest Parameter einer Korrektur-Punktspreizfünktion (PSF), die nach einem Verfahren gemäß Anspruch 1 ermittelt wurde, abgelegt sind, wobei die Punktspreizfunktion (PSF) ein Streulichtverhalten und ein Signalübersprechen der Lichtlaufzeitkamera (20) und des Lichtlaufzeitsensors (22) berücksichtigt, mit einer Auswerteeinheit, die derart ausgestaltet ist, dass anhand der abgelegten Punktspreizfunktion (PSF) ein erfasstes Bild (I(x)) entfaltet und ein korrigiertes Bild (I0(x)) ermittelt wird, und dass die Ermittlung der Phasenverschiebungen (Δφ) bzw. Entfernungswerte (d) anhand des korrigiertes Bilds (I0(x)) erfolgt.
  3. Lichtlaufzeitkamera (20) nach Anspruch 2, bei dem die Punktspreizfunktion (PSF) komplexwertig ist.
  4. Lichtlaufzeitkamera (20) nach einem der vorhergehenden Vorrichtungsansprüche, bei dem die Entfaltung des erfassten Bilds (I(x)) und der abgelegten Punktspreizfunktion (PSF) im Fourierraum erfolgt.
  5. Lichtlaufzeitkamera (20) nach einem der vorhergehenden Vorrichtungsansprüche, bei dem die Punktspreizfunktion (PSF) als Matrix oder Lookup-Table im Speicher abgelegt ist.
  6. Lichtlaufzeitkamera (20) nach einem der vorhergehenden Vorrichtungsansprüche, bei dem die Punktspreizfunktion (PSF) als Fouriertransformierte im Speicher abgelegt ist.
  7. Lichtlaufzeitkamera (20) nach einem der vorhergehenden Vorrichtungsansprüche, bei dem die Punktspreizfunktion (PSF) auf einem externen Gerät gespeichert ist und die Korrektur der Phasenverschiebungen (Δφ) oder Entfernungswerte (d) auf dem externen Gerät erfolgt.
DE102017205743.2A 2017-04-04 2017-04-04 Lichtlaufzeitkamera Pending DE102017205743A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017205743.2A DE102017205743A1 (de) 2017-04-04 2017-04-04 Lichtlaufzeitkamera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017205743.2A DE102017205743A1 (de) 2017-04-04 2017-04-04 Lichtlaufzeitkamera

Publications (1)

Publication Number Publication Date
DE102017205743A1 true DE102017205743A1 (de) 2018-10-04

Family

ID=63524725

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017205743.2A Pending DE102017205743A1 (de) 2017-04-04 2017-04-04 Lichtlaufzeitkamera

Country Status (1)

Country Link
DE (1) DE102017205743A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109781030A (zh) * 2019-01-23 2019-05-21 四川大学 相位校正方法、装置、电子设备及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE112008003342T5 (de) * 2007-12-18 2011-01-13 Iee International Electronics & Engineering S.A. Aufzeichnung von 3D-Bildern einer Szene
US20170091910A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Facilitating projection pre-shaping of digital images at computing devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE19704496C2 (de) 1996-09-05 2001-02-15 Rudolf Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE112008003342T5 (de) * 2007-12-18 2011-01-13 Iee International Electronics & Engineering S.A. Aufzeichnung von 3D-Bildern einer Szene
US20170091910A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Facilitating projection pre-shaping of digital images at computing devices

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IMAGEJ: Deconvolution. Stand 22.03.2017. URL: https://imagej.net/Deconvolution [abgerufen am 07.03.2018] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109781030A (zh) * 2019-01-23 2019-05-21 四川大学 相位校正方法、装置、电子设备及计算机可读存储介质

Similar Documents

Publication Publication Date Title
DE102018107801A1 (de) Lichtlaufzeitkamera
DE112008003342B4 (de) Aufzeichnung von 3D-Bildern einer Szene
DE69207176T2 (de) Optischer Sensor
EP3537339A2 (de) Kamera und verfahren zur erfassung von bilddaten
DE60125683T2 (de) Anordnung und Verfahren zur Entfernungsmessung
DE4218971C2 (de) Verfahren zur Kalibrierung eines Bildverarbeitungssystems
DE102015205826B4 (de) Entfernungsmesssystem mit Lichtlaufzeitpixelzeile
DE102014108310B4 (de) Optisches Laufzeitsystem
DE102009046108A1 (de) Kamerasystem
DE102020003651A1 (de) Entfernungsbestimmungsvorrichtung mit einer Funktion zum Bestimmen der Beleuchtungsstärke und Verfahren zum Bestimmen der Beleuchtungsstärke von externem Licht
WO2007036553A1 (de) Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE102019123449A1 (de) Lichtlaufzeitkamerasystem mit hohem Dynamikumfang
DE19851010B4 (de) Einrichtung zur Erkennung und Lokalisierung von Laserstrahlungsquellen
DE102017205743A1 (de) Lichtlaufzeitkamera
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE102017205745A1 (de) Lichtlaufzeitkamera
DE102016219518B4 (de) Lichtlaufzeitkamerasystem
DE102020123671B4 (de) Verfahren und Vorrichtung zur Dynamikerweiterung eines Lichtlaufzeitkamerasystems
DE102018219476A1 (de) Vorrichtung für eine optische Abtastung eines Umfeldes der Vorrichtung
DE102017221797A1 (de) Lidar-System zur Umfelderfassung und Verfahren zum Betreiben eines Lidar-Systems
DE102016219515A1 (de) Lichtlaufzeitkamerasystem
DE102017200879B4 (de) Lichtlaufzeitkamera und Verfahren zum Betreiben einer solchen
DE102016220290A1 (de) Verfahren und Vorrichtung zum Erkennen eines direkten Lichtreflexionsstrahls von einem Objekt auf einen Lichtsensor
EP3007430A1 (de) Kamerasystem und Verfahren zur Inspektion und/oder Vermessung von Objekten
DE102016219519A1 (de) Lichtlaufzeitkamerasystem

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: PMDTECHNOLOGIES AG, 57076 SIEGEN, DE

R082 Change of representative

Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE