DE102017205745A1 - Time of flight camera - Google Patents

Time of flight camera Download PDF

Info

Publication number
DE102017205745A1
DE102017205745A1 DE102017205745.9A DE102017205745A DE102017205745A1 DE 102017205745 A1 DE102017205745 A1 DE 102017205745A1 DE 102017205745 A DE102017205745 A DE 102017205745A DE 102017205745 A1 DE102017205745 A1 DE 102017205745A1
Authority
DE
Germany
Prior art keywords
light
psf
camera
image
point spread
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017205745.9A
Other languages
German (de)
Inventor
Stephan Ulrich
Lutz Heyne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PMDtechnologies AG
Original Assignee
PMDtechnologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PMDtechnologies AG filed Critical PMDtechnologies AG
Priority to DE102017205745.9A priority Critical patent/DE102017205745A1/en
Publication of DE102017205745A1 publication Critical patent/DE102017205745A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zur Ermittlung einer Punktspreizfunktion (PSF) für eine Lichtlaufzeitkamera (20) eines Lichtlaufzeitkamerasystems (1), bei dem mit Hilfe der Lichtlaufzeitkamera (20) ein einzelnes Bild I(x) einer Referenzszene mit einem Objekt (40) im Vordergrund erfasst wird, mit der Voraussetzung, dass die Referenzszene als ebene Fläche ausgebildet ist, wobei das einzelne Bild I(x) mit Hilfe einer ersten Punktspreizfunktion korrigiert wird, wobei zur Ermittlung einer Korrektur-Punktspreizfunktion Parameter der ersten Punktspreizfunktion solange verändert werden, bis ein Unterschied zwischen dem korrigierten Bild I'(x) und einem zu erwarteten Bild I0(x) minimal ist und/oder einen Grenzwert unterschreitet.

Figure DE102017205745A1_0000
Method for determining a point spread function (PSF) for a light runtime camera (20) of a light transit time camera system (1) in which a single image I (x) of a reference scene with an object (40) in the foreground is detected by means of the light runtime camera (20) the condition that the reference scene is formed as a flat surface, wherein the single image I (x) is corrected by means of a first Punkttspreizfunktion, wherein to determine a correction point spread function parameters of the first point spread function are changed until a difference between the corrected image I '(x) and an expected image I 0 (x) is minimal and / or falls below a threshold.
Figure DE102017205745A1_0000

Description

Die Erfindung befasst mit einer Lichtlaufzeitkamera und einem Verfahren zur Erfassung einer Punktspreizfunktion zur Korrektur der ermittelten Signale eines Lichtlaufzeitsensors.The invention relates to a time-of-flight camera and to a method for detecting a point spreading function for correcting the detected signals of a light transit time sensor.

Lichtlaufzeitkamera bzw. Lichtlaufzeitkamerasysteme betreffen insbesondere alle Lichtlaufzeit- bzw. 3D-TOF-Kamerasysteme, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit- bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie beispielsweise in der DE 197 04 496 A1 beschrieben und von der Firma ‚ifm electronic GmbH‘ oder ‚pmdtechnologies ag‘ als Frame-Grabber O3D bzw. als CamCube zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.Time-of-flight camera or time-of-flight camera systems relate, in particular, to all of the time-of-flight or 3D TOF camera systems which obtain transit time information from the phase shift of an emitted and received radiation. PMT cameras with photonic mixer detectors (PMD) are particularly suitable as the time of flight or 3D TOF cameras, as they are used in the DE 197 04 496 A1 and can be obtained from the company 'ifm electronic GmbH' or 'pmdtechnologies ag' as a frame grabber O3D or as a CamCube. In particular, the PMD camera allows a flexible arrangement of the light source and the detector, which can be arranged both in a housing and separately.

Aufgabe der Erfindung ist es, die Kompensation von Phasenfehlern weiter zu verbessern.The object of the invention is to further improve the compensation of phase errors.

Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Lichtlaufzeitkamerasystem nach Gattung der unabhängigen Ansprüche gelöst.The object is achieved in an advantageous manner by the inventive time of flight camera system according to the preamble of the independent claims.

Vorteilhaft ist ein Verfahren zur Ermittlung einer Punktspreizfunktion für eine Lichtlaufzeitkamera eines Lichtlaufzeitkamerasystems vorgesehen, bei dem mit Hilfe der Lichtlaufzeitkamera ein einzelnes Bild I(x) einer Referenzszene mit einem Objekt im Vordergrund erfasst wird, mit der Voraussetzung, dass die Referenzszene als ebene Fläche ausgebildet ist, wobei das einzelne Bild I(x) mit Hilfe einer ersten Punktspreizfunktion korrigiert wird, wobei zur Ermittlung einer Korrektur-Punktspreizfunktion Parameter der ersten Punktspreizfunktion solange verändert werden, bis ein Unterschied zwischen dem korrigierten Bild I'(x) und einem zu erwarteten Bild I0(x) minimal ist und/oder einen Grenzwert unterschreitet.Advantageously, a method is provided for determining a point spread function for a light runtime camera of a light transit time camera system in which a single image I (x) of a reference scene with an object in the foreground is detected with the aid of the light runtime camera, with the prerequisite that the reference scene is formed as a flat surface in which the individual image I (x) is corrected by means of a first point spread function, wherein parameters of the first point spread function are changed until a difference between the corrected image I '(x) and an expected image I is determined to determine a correction point spread function 0 (x) is minimal and / or falls below a threshold.

Dieses Vorgehen hat den Vorteil, dass anhand einer einfach gestalteten Referenzszene wesentliche Parameter einer Punktspreizfunktion ermittelt werden können.This procedure has the advantage that essential parameters of a point spreading function can be determined on the basis of a simply designed reference scene.

Die Referenzszene kann vorteilhaft dadurch weiter ausgestaltet werden, dass die Referenzszene definierte Eigenschaften aufweist, bevorzugt ist daher auch ein Verfahren zur Ermittlung einer Punktspreizfunktion für eine Lichtlaufzeitkamera eines Lichtlaufzeitkamerasystems vorgesehen, bei dem mit Hilfe der Lichtlaufzeitkamera ein 3D-Bild I(x) einer Stufe eines Referenzobjekts erfasst wird, wobei das Referenzobjekt eine Stufe definierter Höhe aufweist und die Flächen der Stufe eben ausgebildet und planparallel zueinander angeordnet sind, und das Referenzobjekt in Relation zur Lichtlaufzeitkamera so angeordnet ist, dass an der Kante der Stufe ein Entfernungssprung zur entfernteren Stufenebene erfolgt, wobei zur Ermittlung einer Korrektur-Punktspreizfunktion Parameter der ersten Punktspreizfunktion solange verändert werden, bis ein Unterschied zwischen dem korrigierten Bild I'(x) und einem zu erwarteten Bild I0(x) minimal ist und/oder einen Grenzwert unterschreitet.The reference scene can advantageously be further developed in that the reference scene has defined properties, therefore, a method for determining a point spread function for a light runtime camera of a light time camera system is preferably provided, in which using the light runtime camera, a 3D image I (x) a stage of Reference object is detected, wherein the reference object has a level of defined height and the surfaces of the step are planar and arranged plane-parallel to each other, and the reference object is arranged in relation to the time of flight camera so that at the edge of the step, a distance jump to the more distant level level takes place for determining a correction point spreading function, parameters of the first point spreading function are changed until a difference between the corrected image I '(x) and an expected image I 0 (x) is minimal and / or falls below a limit value.

Besonders vorteilhaft ist eine Lichtlaufzeitkamera für ein Lichtlaufzeitkamerasystem vorgesehen, mit einem Lichtlaufzeitsensor mit mehreren Lichtlichtlaufzeitpixeln zur Ermittlung einer Phasenverschiebung eines ausgesendeten und empfangenen Lichts, wobei ausgehend von den erfassten Phasenverschiebungen Entfernungswerte ermittelt werden, wobei die Lichtlaufzeitkamera einen Speicher aufweist, in dem zumindest Parameter einer Punktspreizfunktion, die nach einem der vorgenannten Verfahren ermittelt wurde, abgelegt sind, wobei die Punktspreizfunktion ein Streulichtverhalten und ein Signalübersprechen der Lichtlaufzeitkamera und des Lichtlaufzeitsensors berücksichtigt, mit einer Auswerteeinheit, die derart ausgestaltet ist, dass anhand der abgelegten Punktspreizfunktion ein erfasstes Bild entfaltet und ein korrigiertes Bild ermittelt wird, und dass die Ermittlung der Phasenverschiebungen bzw. Entfernungswerte anhand des korrigiertes Bilds erfolgt.A light transit time camera for a light transit time camera system is particularly advantageously provided, with a light transit time sensor with a plurality of light runtime pixels for determining a phase shift of a transmitted and received light, wherein distance values are determined based on the detected phase shifts, wherein the runtime camera has a memory in which at least parameters of a point spread function, which has been determined according to one of the aforementioned methods, are stored, wherein the point spread function takes into account scattered light behavior and signal crosstalk of the light transit time camera and the light transit time sensor, with an evaluation unit which is designed in such a way that a detected image unfolds and a corrected image is determined on the basis of the stored point spread function and that the determination of the phase shifts or distance values is based on the corrected image.

Vorzugsweise ist die Punktspreizfunktion komplexwertig.Preferably, the point spreading function is complex.

Nützlich ist es ferner, wenn die Entfaltung des erfassten Bilds und der abgelegten Punktspreizfunktion im Fourierraum erfolgt.It is also useful if the unfolding of the acquired image and the stored point spreading function takes place in Fourier space.

Vorzugsweise ist die Punktspreizfunktion als Matrix oder Lookup-Table und/oder als Fouriertransformierte im Speicher abgelegt ist.The point spread function is preferably stored in the memory as a matrix or lookup table and / or as a Fourier transform.

In einer weiteren Ausgestaltung ist es vorgesehen, die Punktspreizfunktion auf einem externen Gerät zu speichern und die Korrektur der Phasenverschiebungen oder Entfernungswerte auf dem externen Gerät durchzuführen.In a further embodiment, it is provided to store the point spreading function on an external device and to carry out the correction of the phase shifts or distance values on the external device.

Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.The invention will be explained in more detail by means of embodiments with reference to the drawings.

Es zeigen:

  • 1 schematisch ein Lichtlaufzeitkamerasystem,
  • 2 eine modulierte Integration erzeugter Ladungsträger,
  • 3 ein Aufbau zur Ermittlung einer Punktspreizfunktion,
  • 4 einen Querschnitt von Bildern zu Ermittlung einer Punktspreizfunktion
  • 5 eine Erfassung einer Referenzszene,
  • 6 eine Erfassung eines Objekts vor der Referenzszene,
  • 7 gemessene Distanzwerte nach 6 in Relation zu den tatsächlichen Distanzen,
  • 8 eine Erfassung von zwei Referenzflächen mit unterschiedlichem Abstand,
  • 9 gemessene Distanzwerte nach 8 in Relation zu den tatsächlichen Distanzen,
  • 10 einen möglichen schematischen Ablauf der Streulichtkorrektur im Sinne der Erfindung.
Show it:
  • 1 schematically a light transit time camera system,
  • 2 a modulated integration of generated charge carriers,
  • 3 a structure for determining a point spread function,
  • 4 a cross-section of images to determine a point spread function
  • 5 a capture of a reference scene,
  • 6 a detection of an object in front of the reference scene,
  • 7 measured distance values after 6 in relation to the actual distances,
  • 8th a detection of two reference surfaces with different distances,
  • 9 measured distance values after 8th in relation to the actual distances,
  • 10 a possible schematic sequence of stray light correction in the context of the invention.

Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.In the following description of the preferred embodiments, like reference characters designate like or similar components.

1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer Lichtlaufzeitkamera, wie sie beispielsweise aus der DE 197 04 496 A1 bekannt ist. 1 shows a measurement situation for an optical distance measurement with a light time camera, as for example from the DE 197 04 496 A1 is known.

Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem Lichtlaufzeitsensor 22.The light transit time camera system 1 comprises a transmitting unit or a lighting module 10 with a lighting 12 and associated beam shaping optics 15 as well as a receiving unit or light runtime camera 20 with a receiving optics 25 and a light transit time sensor 22.

Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel-Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.The light transit time sensor 22 has at least one time-of-flight pixel, preferably also a pixel array, and is designed in particular as a PMD sensor. The receiving optic 25 typically consists of improving the imaging characteristics of a plurality of optical elements. The beam shaping optics 15 the transmitting unit 10 may be formed for example as a reflector or lens optics. In a very simple embodiment, if necessary, optical elements can also be dispensed with both on the receiving side and on the transmitting side.

Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Lichtlaufzeitsensor 22 über einen Modulator 30 gemeinsam mit einem bestimmten Modulationssignal M0 mit einer Basisphasenlage φ0 beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φ0 des Modulationssignals M0 der Lichtquelle 12 um definierte Phasenlagen φvar verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von φvar = 0°, 90°, 180°, 270° verwendet.The measurement principle of this arrangement is essentially based on the fact that, based on the phase shift of the emitted and received light, the transit time and thus the distance covered by the received light can be determined. For this purpose, the light source 12 and the light transit time sensor 22 via a modulator 30 together with a specific modulation signal M 0 with a base phase situation φ 0 applied. In the example shown is also between the modulator 30 and the light source 12 is a phase shifter 35 provided with which the base phase φ 0 the modulation signal M 0 the light source 12 around defined phase positions φ var can be moved. For typical phase measurements, preferably phase angles of φ var = 0 °, 90 °, 180 °, 270 ° used.

Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein intensitätsmoduliertes Signal Sp1 mit der ersten Phasenlage p1 bzw. p1 = φ0 + φvar aus. Dieses Signal Sp1 bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke 2d, bzw. der Lichtlaufzeit tL , phasenverschoben Δφ(tL) mit einer zweiten Phasenlage p2 = φ0 + φvar + Δφ(tL) als Empfangssignal Sp2 auf den Lichtlaufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal M0 mit dem empfangenen Signal Sp2 gemischt, wobei aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.The light source transmits according to the set modulation signal 12 an intensity modulated signal S p1 with the first phase position p1 respectively. p1 = φ 0 + φ var out. This signal S p1 or the electromagnetic radiation is reflected in the case shown by an object 40 and hits due to the distance traveled 2d, or the light transit time t L , out of phase Δφ (t L ) with a second phase position p2 = φ 0 + φ var + Δφ (t L ) as a received signal S p2 on the light transit time sensor 22 , In the time of flight sensor 22 becomes the modulation signal M 0 with the received signal S p2 mixed, wherein from the resulting signal, the phase shift or the object distance d is determined.

Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden oder Oberflächenemitter (VCSEL). Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.As illumination source or light source 12 Preferably, infrared light emitting diodes or surface emitters (VCSEL) are suitable. Of course, other radiation sources in other frequency ranges are conceivable, in particular, light sources in the visible frequency range are also considered.

Das Grundprinzip der Phasenmessung ist beispielhaft schematisch in 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals M0 mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal Sp2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(tL) auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals M0 in einem ersten Integrationsknoten Ga und in einer um 180° verschobenen Phasenlage in einem zweiten Integrationsknoten Gb. Für diese Lenkung der Ladungen auf die Integrationsknoten weisen die Pixel 23 des Lichtlaufzeitsensors 22 wenigstens zwei Modulationsgates Gam, Gbm auf, die in Abhängigkeit der anliegenden Modulationssignale die Ladungen zum ersten oder zweiten Integrationsknoten Ga, Gb lenken. Aus dem Unterschied der im ersten und zweiten Integrationsknoten Ga, Gb gesammelten Ladungen qa, qb unter Berücksichtigung aller Phasenlagen φvar lässt sich die Phasenverschiebung Δφ(tL) und somit eine Entfernung d des Objekts bestimmen.The basic principle of phase measurement is exemplified schematically in FIG 2 shown. The upper curve shows the time course of the modulation signal M 0 with the lighting 12 and the light transit time sensor 22 be controlled. The object 40 reflected light hits as received signal S p2 according to its light-time t L phase Δφ (t L ) on the light transit time sensor 22 , The light transit time sensor 22 collects the photonically generated charges q over several modulation periods in the phase position of the modulation signal M 0 in a first integration node ga and in a phase angle shifted by 180 ° in a second integration node gb , For this steering of the charges to the integration nodes, the pixels 23 of the light transit time sensor 22 at least two modulation gates Gam, Gbm on, depending on the applied modulation signals, the charges to the first or second integration node ga . gb to steer. From the difference in the first and second integration nodes ga . gb collected charges qa, qb taking into account all phases φ var can be the phase shift Δφ (t L ) and thus a distance d of the object.

3 zeigt schematisch einen Aufbau zur Ermittlung einer Punktspreizfunktion PSF. Hier kann die Lichtquelle 112 und der Lichtlaufzeitsensor 22 unmoduliert oder mit wenigstens einer vorgegebenen Modulationsfrequenz betrieben werden. Bei der Verwendung eines unmodulierten Lichts ist es von Vorteil, wenn auch der Lichtlaufzeitsensor 22 bzw. die Pixel 23 unmoduliert betrieben werden. Hierbei ist es hilfreich, wenn an den Modulationsgates Garn, Gbm der Pixel 23 ein konstante Spannung derart anliegt, dass die photogenerierten Ladungen vornehmlich nur in einem Integrationsknoten Ga, Gb gesammelt werden. 3 schematically shows a structure for determining a point spread PSF. Here, the light source 112 and the light transit time sensor 22 be operated unmodulated or with at least one predetermined modulation frequency. When using an unmodulated light, it is advantageous, although the light transit time sensor 22 or the pixels 23 are operated unmodulated. Here it is helpful if a constant voltage is applied to the modulation gates Yarn, Gbm of the pixels 23 in such a way that the photogenerated charges are primarily only in an integration node ga . gb to be collected.

Zur Bestimmung der PSF ist es günstig, wenn die Lichtquelle 112 im Wesentlichen nur ein einziges Pixel 23 vorzugsweise weniger als 3×3 und insbesondere weniger als 5×5 Pixel 23 des Lichtlaufzeitsensors 22 beleuchtet. Zur Bereitstellung eines solchen Lichtpunkts ist vor der Lichtquelle 112 eine Blende 150 mit einer hinreichend kleinen Blendenöffnung 152 vorgesehen. Das aus der Blende 150 austretende originäre Lichtsignal I0 wird durch eine Vielzahl von Einflüssen auf dem Weg zum Sensor bis hin zum erfassten Bildsignal I(x) beeinflusst, beispielsweise durch Eigenschaften des optischen System bzw. der Optik 25 oder Reflektionen zwischen Sensor 22 und der Optik 25. Auch spielen intrinsische Eigenschaften des Sensors 22 selbst eine Rolle, wie zum Beispiel ein Signalübersprechen oder eine Elektronendiffusion zwischen den Pixeln 23. Im Ergebnis kann das am Sensor erfasste Bildsignal I(x) als Faltung zwischen dem einkommenden Licht I0 und einer Punktspreizfunktion PSF, die im Wesentlichen alle Eigenschaften des Gesamtsystems umfasst, betrachtet werden. Aufgrund der singulären Beleuchtung eines oder ein paar weniger Pixel entspricht das erfasste Bildsignal I(x) im Wesentlichen der Punktspreizfunktion PSF. Für die Ermittlung der Punktspreizfunktion werden vorzugsweise alle Pixel ausgewertet. Grundsätzlich ist es jedoch auch denkbar, nur einen Teilbereich um das singulär beleuchtete Pixel auszuwerten.To determine the PSF, it is favorable if the light source 112 substantially only a single pixel 23, preferably less than 3 × 3 and in particular less than 5 × 5 pixels 23 of the light transit time sensor 22 illuminated. To provide such a light spot, a diaphragm 150 with a sufficiently small diaphragm opening 152 is provided in front of the light source 112. The originating from the aperture 150 original light signal I 0 is influenced by a variety of influences on the way to the sensor up to the detected image signal I (x), for example by properties of the optical system or optics 25 or reflections between sensor 22 and optics 25. Also play intrinsic properties of the sensor 22 As a result, the image signal I (x) detected at the sensor may be a convolution between the incoming light I 0 and a point spreading function PSF that includes substantially all the characteristics of the overall system , to be viewed as. Due to the singular illumination of one or a few fewer pixels, the detected image signal I (x) essentially corresponds to the point spreading function PSF. For the determination of the point spreading function, preferably all pixels are evaluated. In principle, however, it is also conceivable to evaluate only a partial area around the singularly illuminated pixel.

Die Qualität der Punktspreizfunktion PSF lässt sich bei Bedarf verbessern, wenn mehrere Punktspreizfunktionen anhand mehrerer singulär beleuchteter Pixel 23 ermittelt werden. Beispielsweise ist es sinnvoll, auch Pixel 23 außerhalb der optischen Achse zu beleuchten um an diesen Positionen weitere Punktspreizfunktionen zu ermitteln. Ausgehend von den ermittelten Punktspreizfunktionen kann dann eine Punktspreizfunktion ermittelt werden, die für die späteren Korrekturen herangezogen werden soll.The quality of the point spreading function PSF can be improved if necessary, if several point spreading functions are determined on the basis of a plurality of singularly illuminated pixels 23. For example, it makes sense to also illuminate pixels 23 outside the optical axis in order to determine further point spread functions at these positions. On the basis of the determined point spread functions, a point spread function can then be determined which is to be used for the later corrections.

Da die erwähnte Elektronendiffusion typischerweise mit einer Diffusionsgeschwindigkeit erfolgt, die signifikant geringer ist als die Lichtausbreitung, erreichen die Elektronen benachbarte Pixel zeitverzögert, so dass sich der Einfluss der Elektronendiffusion auch als Phasenverschiebung bemerkbar macht. Die Punktspreizfunktion PSF erhält somit auch komplexwertige Anteile. Zur genaueren Bestimmung dieser Größen ist es daher von Vorteil, die Lichtquelle 112 in verschiedenen Phasenlagen zu betreiben.Since the mentioned electron diffusion typically occurs at a diffusion rate that is significantly lower than the propagation of light, the electrons reach adjacent pixels with a time delay, so that the influence of electron diffusion also manifests itself as a phase shift. The point spread PSF thus also receives complex valued shares. For more accurate determination of these quantities, it is therefore advantageous to operate the light source 112 in different phase angles.

Da eine Punktspreizfunktion typischerweise einen hohe Dynamik über mehrere Zehnerpotenzen aufweist, ist es zur Erfassung der PSF ferner von Vorteil, die Punktlichtquelle 112 mit unterschiedlichen Intensitäten und/oder den Sensor 22 mit unterschiedlichen Integrationszeiten zu betreiben.Since a point spread function typically has high dynamics over several orders of magnitude, it is further advantageous for detecting the PSF, the point light source 112 with different intensities and / or the sensor 22 operate with different integration times.

Zur Kompensation von Dunkelströmen ist es hilfreich, Bildsignale I(x) sowohl bei ein- und ausgeschalteter Lichtquelle 112 zu erfassen.To compensate for dark currents, it is helpful to capture image signals I (x) both when the light source 112 is switched on and off.

Aus der Summe aller Messungen kann dann ein Modell einer Punktspreizfunktion generiert werden, das für alle Pixel 23 anwendbar ist.From the sum of all measurements, a model of a point spread function can be generated, which is applicable to all pixels 23.

Ein solches Modell kann entsprechend folgender Überlegungen generiert werden: Da die gemessene PSF rauschbehaftet ist und beispielsweise Artefakte enthalten kann, die sehr spezifisch für die Pixelposition auf dem Sensor sind, erhält man eine „saubere“ PSF beispielsweise durch einen Fit der gemessenen PSF an ein geeignetes Modell. Als Modell eignen sich z.B. PSF ( x ) = A ( x ) + B ( x p B )

Figure DE102017205745A1_0001
wobei beispielsweise A ( x ) = A 0  exp ( s ( x p ) )
Figure DE102017205745A1_0002
gewählt werden kann.Such a model can be generated according to the following considerations: Since the measured PSF is noisy and may contain, for example, artifacts that are very specific to the pixel position on the sensor, a "clean" PSF is obtained, for example, by fitting the measured PSF to a suitable one Model. As a model are suitable, for example PSF ( x ) = A ( x ) + B ( x p B )
Figure DE102017205745A1_0001
for example A ( x ) = A 0 exp ( - s ( x p ) )
Figure DE102017205745A1_0002
can be chosen.

Hierbei bezeichnet x

Figure DE102017205745A1_0003
den Entfernungsvektor vom Zentralpixel x 0
Figure DE102017205745A1_0004
der PSF in Pixeln und x p = ( x 1 p + x 2 p ) 1 / p
Figure DE102017205745A1_0005
die p-Norm von x p = 2
Figure DE102017205745A1_0006
ergäbe z.B. eine exakt radialsymmetrische PSF. Da die PSF nicht unbedingt radialsymmetrisch ist, sondern z.B. rautenförmig sein kann, kann p ≠ 2 bessere Ergebnisse liefern. Durch geeignete Wahl der p-Norm können somit Anisotropien der PSF berücksichtigt werden.Hereby designated x
Figure DE102017205745A1_0003
the distance vector from the central pixel x 0
Figure DE102017205745A1_0004
the PSF in pixels and x p = ( x 1 p + x 2 p ) 1 / p
Figure DE102017205745A1_0005
the p-norm of x p = 2
Figure DE102017205745A1_0006
For example, would result in an exactly radially symmetric PSF. Since the PSF is not necessarily radially symmetric, but may be diamond-shaped, for example, p ≠ 2 can give better results. By suitable choice of the p-standard anisotropies of the PSF can thus be taken into account.

Da das meiste Licht auf den Zentralpixel der PSF fällt, ist es hilfreich, dem Modell eine örtlich schmale Funktion B(r) hinzuzufügen, die diesen Anteil wiederspiegelt. Dies kann z.B. ein Dirac-Delta, oder eine Gauß-Funktion sein, die beispielsweise die Linsenunschärfe beschreibt.Since most of the light falls on the central pixel of the PSF, it is helpful to add to the model a locally narrow function B (r) that reflects that fraction. This can e.g. a Dirac delta, or a Gaussian function describing, for example, the lens blurring.

Aus Effizienzgründen ist es von Vorteil, die PSF beispielsweise in Form einer Spline-Kurve zu beschreiben. Um Phasenverschiebungen mit dieser PSF zu beschreiben, kann der Spline beispielsweise neben dem Realteil auch einen komplexwertigen Anteil haben. Dadurch wird auch die PSF komplexwertig. Geeignete Fitting-Parameter sind dann beispielsweise die Werte an den Knoten der Splines, die Norm-Parameter p und pB, sowie Parameter, die die Form von B(r) angeben. Anstatt die komplette PSF abzuspeichern, ist es von Vorteil, lediglich die nötigen Parameter abzuspeichern, um bei der Initialisierung der Software die PSF aus diesen Parametern zu generieren.For reasons of efficiency, it is advantageous to describe the PSF in the form of a spline curve, for example. In order to describe phase shifts with this PSF, the spline may, for example, have a complex-valued component in addition to the real part. This also makes the PSF complex. Suitable fitting parameters are then, for example, the values at the nodes of the splines, the norm parameters p and p B , as well as parameters that specify the shape of B (r). Instead of the complete PSF It is advantageous to save only the necessary parameters in order to generate the PSF from these parameters when the software is initialized.

Im laufenden Betrieb der Lichtlaufzeitkamera besteht dann die Möglichkeit anhand der hinterlegten Parameter und der daraus genierten PSF die Distanzwerte hinsichtlich Streulichteinflüsse zu bereinigen.During operation of the time of flight camera, it is then possible to use the stored parameters and the resulting PSF to clean up the distance values with regard to scattered light influences.

Mit Hilfe des beschriebenen Aufbaus wird vorzugsweise ein erstes Bild I ˜ k ( x )

Figure DE102017205745A1_0007
mit kurzer Belichtungszeit tk aufgenommen. Konkret ist die Belichtungszeit so zu wählen, dass keiner der Pixel in Sättigung ist. Für den Fall, dass moduliertes Licht verwendet wird, darf kein Pixel der erhaltenen Rohbilder gesättigt sein.With the help of the described structure is preferably a first image I ~ k ( x )
Figure DE102017205745A1_0007
taken with a short exposure time t k . Specifically, the exposure time should be chosen so that none of the pixels is in saturation. In the case where modulated light is used, no pixel of the obtained raw images may be saturated.

Außerdem wird ein zweites Bild I ˜ l ( x )

Figure DE102017205745A1_0008
mit langer Belichtungszeit tl aufgenommen. Hier ist die Belichtungszeit so zu wählen, dass der von Streulicht und/oder crosstalk/Signalübersprechen verursachte Anteil der PSF möglichst vollständig sichtbar, also nicht von Rauschen beeinträchtigt ist. Die Belichtungszeit ist hier typischerweise 1000-10000 mal größer als im ersten Bild.There will also be a second picture I ~ l ( x )
Figure DE102017205745A1_0008
recorded with a long exposure time t l . Here, the exposure time should be selected so that the proportion of the PSF caused by scattered light and / or crosstalk / signal crosstalk is as completely as possible visible, ie not affected by noise. The exposure time here is typically 1000-10000 times greater than in the first image.

Bei den Aufnahmen kann entweder unmoduliertes Licht verwendet werden oder Lichtquelle und Sensor können auf übliche Weise moduliert werden. In letzterem Fall sind die Bilder I ˜ k ( x )  und  I ˜ l ( x )

Figure DE102017205745A1_0009
wie üblich komplexwertig, enthalten also Phaseninformationen, die die Zeit vom Aussenden des Lichts bis zum Aufnehmen der erzeugten Elektronen an den Gates des Sensors wiederspiegelt.When recording, either unmodulated light can be used or the light source and sensor can be modulated in the usual way. In the latter case are the pictures I ~ k ( x ) and I ~ l ( x )
Figure DE102017205745A1_0009
as usual complex-valued, thus contain phase information, which reflects the time from the emission of light to the recording of the generated electrons at the gates of the sensor.

Für beide Bilder kann es hilfreich sein, anstatt eines Bildes eine Serie von Bildern aufzunehmen und diese zu mitteln, um das Rauschen weiter zu reduzieren.For both images, it may be helpful to take a series of images instead of an image and average them to further reduce the noise.

Um konsistente Werte zwischen dem ersten und zweiten Bild zu erlangen, werden beispielsweise die Helligkeiten (oder Amplituden) mit den unterschiedlichen Integrationszeiten normiert: I l ( x ) = I ˜ l ( x ) / t l I k ( x ) = I ˜ k ( x ) / t k

Figure DE102017205745A1_0010
In order to obtain consistent values between the first and second image, for example, the brightnesses (or amplitudes) with the different integration times are normalized: I l ( x ) = I ~ l ( x ) / t l I k ( x ) = I ~ k ( x ) / t k
Figure DE102017205745A1_0010

Auf den erhaltenen Bildern ist i.A. die genaue Position des beleuchteten Zentralpixels x 0

Figure DE102017205745A1_0011
noch unbekannt. Um die Position des Zentralpixels x 0
Figure DE102017205745A1_0012
zu bestimmen, wird das erste Bild I k ( x )
Figure DE102017205745A1_0013
beispielsweise mit Hilfe eines Schwellwertverfahrens binarisiert, wodurch der helle LED-Spot in einer zusammenhängenden Fläche resultieren sollte.In the pictures obtained iA is the exact position of the illuminated central pixel x 0
Figure DE102017205745A1_0011
still unknown. To the position of the central pixel x 0
Figure DE102017205745A1_0012
to determine, becomes the first picture I k ( x )
Figure DE102017205745A1_0013
for example, using a thresholding method, which should result in the bright LED spot in a contiguous area.

Das Zentrum der zusammenhängenden Fläche, ist eine gute Schätzung für das Zentralpixel bzw. den Zentralpunkt x 0

Figure DE102017205745A1_0014
auf dem Sensor, auf den die Lichtquelle gerichtet ist. Dieser Zentralpunkt x 0
Figure DE102017205745A1_0015
muss nicht notwendigerweise auf die Mitte eines Pixels fallen, d.h. die gefundene Position für den Zentralpunkt x 0
Figure DE102017205745A1_0016
muss nicht ganzzahlig sein.The center of the contiguous surface is a good estimate of the central pixel or center point x 0
Figure DE102017205745A1_0014
on the sensor to which the light source is directed. This central point x 0
Figure DE102017205745A1_0015
does not necessarily fall to the center of a pixel, ie the position found for the central point x 0
Figure DE102017205745A1_0016
does not have to be an integer.

Nun wird das Bild I k ( x )

Figure DE102017205745A1_0017
der kurzen Belichtung an das Modell eines scharfen Spots gefittet. Ein solches Modell ist beispielsweise in Gleichung (1) mit B ( x p )
Figure DE102017205745A1_0018
bezeichnet. Konkret wird hierbei ( P B , p B ) = arg min P B , p B ( x | I k ( x ) B ( x x 0 p B ) | 2 )
Figure DE102017205745A1_0019
bestimmt, wobei PB die Parameter der Funktion B(r) und pB der Parameter der Norm sind. Beispielsweise könnte B(r) = B0 exp(-br2) gewählt werden, wobei dann PB = (B0, b) würde.Now the picture will be I k ( x )
Figure DE102017205745A1_0017
short exposure to the model of a sharp spot. Such a model is for example in equation (1) with B ( x p )
Figure DE102017205745A1_0018
designated. It becomes concrete here ( P B . p B ) = arg min P B . p B ( Σ x | I k ( x ) - B ( x - x 0 p B ) | 2 )
Figure DE102017205745A1_0019
where P B are the parameters of function B (r) and p B are the parameters of the norm. For example, B (r) = B 0 exp (-br 2 ) could be chosen, then P B = (B 0 , b).

Für die numerische Minimierung gemäß Gleichung (4) gibt es zahlreiche Algorithmen, wie z.B. das Nelder-Mead-Verfahren.For the numerical minimization according to equation (4), there are numerous algorithms, e.g. the Nelder-Mead procedure.

Zusätzlich zu PB und pB kann es auch bessere Ergebnisse liefern, in Gleichung (4) das Zentrum x 0

Figure DE102017205745A1_0020
der Lichtquelle mit in die Optimierung aufzunehmen. Dann würde der zuvor gefundene Wert aus dem binarisierten Bild sich als Startwert eignen.In addition to P B and p B it can also give better results, in equation (4) the center x 0
Figure DE102017205745A1_0020
to include the light source in the optimization. Then the previously found value from the binarized image would be suitable as a seed.

Nun wird das zweite Bild I l ( x )

Figure DE102017205745A1_0021
mit der langen Belichtungszeit betrachtet. Analog zu Gleichung (4) wird das Bild an das Modell der Streulichtsignatur, A ( x )
Figure DE102017205745A1_0022
in Gleichung (1), gefittet: ( P A , p A ) = arg min P A , p A ( x | I l ( x ) A ( x x 0 ) | 2 )
Figure DE102017205745A1_0023
Now the second picture I l ( x )
Figure DE102017205745A1_0021
considered with the long exposure time. Analogously to equation (4), the image is applied to the model of the scattered light signature, A ( x )
Figure DE102017205745A1_0022
in equation (1), fitted: ( P A . p A ) = arg min P A . p A ( Σ x | I l ( x ) - A ( x - x 0 ) | 2 )
Figure DE102017205745A1_0023

Bei Bedarf kann der zentrale Anteil der PSF, der durch B(r) beschrieben wird unberücksichtigt bleiben.If necessary, the central portion of the PSF described by B (r) can be disregarded.

Analog zum ersten Fit sind hier PA die Parameter der Modellfunktion A ( r ) .

Figure DE102017205745A1_0024
Als zweckdienlich erweist sich z.B. eine Funktion der Form: A ( r ) = A 0  exp ( s ( r p A ) + i Φ ( r ) )
Figure DE102017205745A1_0025
wobei s(r) und eine (reelle) Spline-Kurve darstellt. Die Funktion Φ ( r )
Figure DE102017205745A1_0026
beschreibt eine Phasenverzögerung des einfallenden Lichtspots, wie sie beispielsweise durch Phase-Crosstalk/Signalübersprechen zwischen den Pixel verursacht werden kann. Da dieser nicht zwingend isotrop ist, kann es nötig sein, Φ ( r )
Figure DE102017205745A1_0027
als zweidimensionale Funktion (z.B. einen 2D-Spline oder eine 2D-Look-up-Table) zu modellieren, anstatt wie für s(r) eine radial symmetrische Funktion anzunehmen.Analogous to the first fit, here P A are the parameters of the model function A ( r ) ,
Figure DE102017205745A1_0024
For example, a function of the form proves to be useful: A ( r ) = A 0 exp ( - s ( r p A ) + i Φ ( r ) )
Figure DE102017205745A1_0025
where s represents (r) and a (real) spline curve. The function Φ ( r )
Figure DE102017205745A1_0026
describes a phase delay of the incident light spot, such as may be caused by phase crosstalk / signal crosstalk between the pixels. Since this is not necessarily isotropic, it may be necessary Φ ( r )
Figure DE102017205745A1_0027
as a two-dimensional function (eg a 2D spline or a 2D look-up table) instead of assuming a radially symmetric function as for s (r).

Die Fit-Parameter PA sind in diesem Fall A0, pA, sowie die Funktionswerte der Splines an den Knotenpunkten. Nach Bedarf kann die Lage der Knotenpunkte ebenfalls Teil der Fit-Parameter PA sein.The fit parameters P A in this case are A 0 , p A , as well as the function values of the splines at the nodes. If necessary, the location of the nodes can also be part of the fit parameter P A.

Mit den erhaltenen Parametern PA und PB, sowie dem PSF-Modell beispielsweise nach Gleichung (1) ist es nun möglich, eine artefaktfreie und nicht rauschbehaftete PSF zu generieren. Anstatt die komplette PSF abzuspeichern, ist es von Vorteil, lediglich diese oder andere geeignete Parameter abzuspeichern, aus denen bei der Initialisierung der Software die PSF generiert werden kann.With the obtained parameters P A and P B , as well as the PSF model, for example according to equation (1), it is now possible to generate an artifact-free and non-noisy PSF. Instead of storing the complete PSF, it is advantageous to store only these or other suitable parameters from which the PSF can be generated when the software is initialized.

Bevorzugt ist es vorgesehen, die mit unterschiedlichen Belichtungszeiten erfassten Aufnahmen getrennt voneinander zu bearbeiten: PSF ( x ) = A 1 ( x ) + A 2 ( x ) +

Figure DE102017205745A1_0028
It is preferably provided that the recordings recorded with different exposure times are processed separately from one another: PSF ( x ) = A 1 ( x ) + A 2 ( x ) +
Figure DE102017205745A1_0028

Die Teil-Modelle A 1 ( x ) , A 2 ( x ) ,

Figure DE102017205745A1_0029
können beispielsweise unterschiedlichen Dynamikbereichen der PSF entsprechen und jeweils getrennt voneinander an Aufnahmen I 1 ( x ) , I 2 ( x ) ,
Figure DE102017205745A1_0030
gefittet werden. Ausgehend von diesen Fit-Parameter kann dann die PSF gemäß Gleichung (7) zusammengefasst werden.The part models A 1 ( x ) . A 2 ( x ) . ...
Figure DE102017205745A1_0029
For example, they may correspond to different dynamic ranges of the PSF and to recordings separately from each other I 1 ( x ) . I 2 ( x ) . ...
Figure DE102017205745A1_0030
be fit. Based on these fit parameters, the PSF can then be summarized according to equation (7).

Im Vorgenannten wurde die Kalibrierung anhand einer Punktlichtquelle mit Blende als Lichtquelle bzw. Lichtquellensystem beschrieben. Selbstverständlich ist die Kalibrierung nicht auf eine solche Lichtquelle eingeschränkt, sondern es kommen alle Lichtquellen oder Lichtsysteme in Betracht, die einen geeigneten Lichtpunkt erzeugen können.In the foregoing, the calibration has been described with reference to a point light source with aperture as the light source or light source system. Of course, the calibration is not limited to such a light source, but all light sources or light systems are considered, which can generate a suitable light spot.

4 bis 9 zeigen weitere Methoden zur Bestimmung einer geeigneten Punktspreizfunktion PSF. In der Methode gemäß 4 werden ein erstes 3D-Bild I1(x) einer Referenzszene und ein zweites 3D-Bild I2(x) mit einem Objekt 40 im Vordergrund der Referenzszene erfasst. Wie bereits besprochen ist aufgrund systemischer Einflüsse eine Veränderung der aus dem ersten 3D-Bild I1(x) bekannten Distanzwerte zu erwarten. Zur Ermittlung einer für die Korrektur geeigneten Punktspreizfunktion werden dann Parameter einer ersten modellhaften PSF solange variiert, bis Unterschiede zwischen dem ersten und zweiten Bild, insbesondere Distanzfehler minimal sind bzw. kleiner sind als ein tolerierter Grenzwert. Hierbei werden vorzugsweise nur die Bildbereiche oder ein Teilbereich davon berücksichtigt, bei denen die Referenzszene in beiden Bildern sichtbar ist. 4 to 9 show further methods for determining a suitable point spread function PSF. In the method according to 4 become a first 3D image I 1 (x) of a reference scene and a second 3D image I 2 (x) with an object 40 captured in the foreground of the reference scene. As already discussed, a change in the distance values known from the first 3D image I 1 (x) is to be expected due to systemic influences. In order to determine a point spread function suitable for the correction, parameters of a first model PSF are then varied until differences between the first and second image, in particular distance errors, are minimal or smaller than a tolerated limit value. Here, preferably only the image areas or a subregion thereof are taken into account, in which the reference scene is visible in both images.

Die Bilder können beispielsweise wie in 5 und 6 gezeigt aufgenommen werden. In einem ersten Schritt wird ein erstes 3D-Bild I1(x) einer Referenzszene erfasst (5). Als Referenzszene kann beispielsweise in einfacher Art und Weise eine Wand oder ein Boden erfasst werden, grundsätzlich können kann jedoch auch beliebige Szenen mit einem beliebigen Höhenprofil erfasst werden. Im zweiten Schritt gemäß 6 wird ein Objekt oberhalb der Referenzszene angeordnet, beispielsweise eine Hand oder ein anderes Objekt, und ein zweites Entfernungsbild I2(x) erfasst. Auch hier sind die Eigenschaften des Objekts im Wesentlichen unkritisch. Wie zur 4 beschrieben kann dann anhand der Differenz beider Bilder eine Korrektur-PSF generiert werden.For example, the pictures can be like in 5 and 6 be shown. In a first step, a first 3D image I 1 (x) of a reference scene is acquired ( 5 ). As a reference scene, for example, a wall or a floor can be detected in a simple manner, but in principle any scenes with an arbitrary height profile can also be detected. In the second step according to 6 For example, an object is placed above the reference scene, such as a hand or other object, and captures a second range image I 2 (x). Again, the properties of the object are essentially uncritical. How to 4 described can then be generated on the basis of the difference between the two images, a correction PSF.

In 7 ist eine Variante gezeigt, bei der die Referenzszene und das Objekt eben und planparallel zueinander angeordnet sind. Anhand eines solchen Vorwissens, lässt sich die Optimierung der PSF ggf. vereinfachen.In 7 a variant is shown in which the reference scene and the object are arranged plane and plane parallel to each other. With such prior knowledge, optimizing the PSF may be easier.

Alternativ ist es beispielsweise möglich, statt zwei Bilder nur ein Bild von einem Target in hinreichender Distanz von einer flachen Referenzszene bzw. -ebene (z.B. Wand, Tisch, Boden) zu erfassen. Zur Bestimmung der PSF werden nun die Parameter solange variiert, bis die Referenzfläche hinter dem Target möglichst eben ist, bzw. die Abweichungen der korrigierten Referenzfläche von einer Ebene kleiner sind, als ein tolerierter Grenzwert.Alternatively, for example, instead of two images, it is possible to capture only one image of a target at a sufficient distance from a flat reference scene (e.g., wall, table, floor). To determine the PSF, the parameters are now varied until the reference surface behind the target is as flat as possible, or the deviations of the corrected reference surface from one plane are smaller than a tolerated limit.

Besonders vorteilhaft ist es, wenn die Dimensionen und Abstände der Referenzszene und/oder des eingebrachten Targets im Vorfeld bekannt sind.It is particularly advantageous if the dimensions and distances of the reference scene and / or of the introduced target are known in advance.

8 und 9 zeigen eine weitere Variante zu dem vorgenannten Vorgehen. Das in 8 dargestellte Objekt 40 weist eine in der Höhe definierte Stufe auf. Die Höhe Δd = dT2 - dT1 ist vorzugsweise vorbekannt. Ebenso wie im vorgenannten Beispiel werden die Parameter eines PSF-Modells solange variiert bis der Distanzfehler minimal wird oder unterhalb eines tolerierten Grenzwertes liegt. 8th and 9 show a further variant of the above procedure. This in 8th represented object 40 has a level defined in height. The height Δd = d T2 -d T1 is preferably previously known. As in the above example, the parameters of a PSF model are varied until the distance error is minimal or below a tolerated limit.

Die vom Sensor gemessenen Rohbilder Dj (z.B. j = 0,1,2,3 entsprechend der Phasenlagen 0°, 90°, 180°, 270°) sind, mathematisch gesehen, eine Faltung der unbekannten, nicht Streulichtverfälschten Rohbildern D j 0

Figure DE102017205745A1_0031
mit der PSF: D j ( x ) = Δ x D j 0 ( x Δ x ) PSF ( Δ x )
Figure DE102017205745A1_0032
The raw images D j measured by the sensor (eg j = 0,1,2,3 corresponding to the phase positions 0 °, 90 °, 180 °, 270 °) are, mathematically speaking, a convolution of the unknown, not stray-light-distorted raw images D j 0
Figure DE102017205745A1_0031
with the PSF: D j ( x ) = Σ Δ x D j 0 ( x - Δ x ) PSF ( Δ x )
Figure DE102017205745A1_0032

Interessant für die Weiterverarbeitung sind die komplexwertigen Bilder I ( x ) : = ( D 0 ( x ) D 2 ( x ) ) + i ( D 1 ( x ) D 3 ( x ) )

Figure DE102017205745A1_0033
Interesting for further processing are the complex-valued images I ( x ) : = ( D 0 ( x ) - D 2 ( x ) ) + i ( D 1 ( x ) - D 3 ( x ) )
Figure DE102017205745A1_0033

Da die Faltung eine lineare Operation ist, gilt analog für I(x) und das nicht-streulichtverfälschte komplexwertige Bild I0(x): I ( x ) = Δ x I 0 ( x - Δ x ) PSF ( Δ x )

Figure DE102017205745A1_0034
bzw. I ( x ) = I 0 ( x ) PSF ( x )
Figure DE102017205745A1_0035
Since the convolution is a linear operation, the same holds for I (x) and the non-scattered complex-valued image I 0 (x): I ( x ) = Σ Δ x I 0 ( x - Δ x ) PSF ( Δ x )
Figure DE102017205745A1_0034
respectively. I ( x ) = I 0 ( x ) * PSF ( x )
Figure DE102017205745A1_0035

Die Entfaltung wird im Fourier-Raum durchgeführt. Dazu werden I(x) und die PSF Fouriertransformiert ( F [ ] ) : I ^ ( k ) = F [ I ( x ) ]  und  PSF ^ ( k ) = F [ PSF ( x ) ] .

Figure DE102017205745A1_0036
The unfolding is performed in Fourier space. For this I (x) and the PSF are Fourier transformed ( F [ ] ) : I ^ ( k ) = F [ I ( x ) ] and PSF ^ ( k ) = F [ PSF ( x ) ] ,
Figure DE102017205745A1_0036

Gleichung 4 wird damit zu: I ^ ( k ) = I ^ 0 ( k ) PSF ^ ( k )

Figure DE102017205745A1_0037
und daher I ^ 0 ( k ) = I ^ ( k ) PSF ^ ( k )
Figure DE102017205745A1_0038
Equation 4 becomes: I ^ ( k ) = I ^ 0 ( k ) PSF ^ ( k )
Figure DE102017205745A1_0037
and therefore I ^ 0 ( k ) = I ^ ( k ) PSF ^ ( k )
Figure DE102017205745A1_0038

Damit erhält man das nicht-streulichtverfälschte Bild I 0 ( x ) = F 1 [ I ^ 0 ( k ) ]

Figure DE102017205745A1_0039
This gives the non-scattered image I 0 ( x ) = F - 1 [ I ^ 0 ( k ) ]
Figure DE102017205745A1_0039

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
LichtlaufzeitkamerasystemTime of flight camera system
1010
Beleuchtungsmodullighting module
1212
Beleuchtunglighting
1515
StrahlformungsoptikBeam shaping optics
2020
Empfänger, LichtlaufzeitkameraReceiver, light time camera
2222
LichtlaufzeitsensorTransit Time Sensor
3030
Modulatormodulator
3535
Phasenschieber, BeleuchtungsphasenschieberPhase shifter, lighting phase shifter
4040
Objektobject
φ, Δφ(tL)φ, Δφ (t L )
laufzeitbedingte Phasenverschiebungterm-related phase shift
φvar φ var
Phasenlagephasing
φ0 φ 0
Basisphasebase phase
M0 M 0
Modulationssignalmodulation signal
p1p1
erste Phasefirst phase
p2p2
zweite Phasesecond phase
Sp1 S p1
Sendesignal mit erster PhaseTransmission signal with first phase
Sp2 S p2
Empfangssignal mit zweiter PhaseReceived signal with second phase
tL t L
LichtlaufzeitTransit Time
Ga, GbGa, Gb
Integrationsknotenintegration node
dd
Obj ektdistanzObject distance
qq
Ladungcharge

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 19704496 A1 [0002, 0016]DE 19704496 A1 [0002, 0016]

Claims (8)

Verfahren zur Ermittlung einer Punktspreizfunktion (PSF) für eine Lichtlaufzeitkamera (20) eines Lichtlaufzeitkamerasystems (1), bei dem mit Hilfe der Lichtlaufzeitkamera (20) ein einzelnes Bild I(x) einer Referenzszene mit einem Objekt (40) im Vordergrund erfasst wird, mit der Voraussetzung, dass die Referenzszene als ebene Fläche ausgebildet ist, wobei das einzelne Bild I(x) mit Hilfe einer ersten Punktspreizfunktion korrigiert wird, wobei zur Ermittlung einer Korrektur-Punktspreizfunktion Parameter der ersten Punktspreizfunktion solange verändert werden, bis ein Unterschied zwischen dem korrigierten Bild I'(x) und einem zu erwarteten Bild I0(x) minimal ist und/oder einen Grenzwert unterschreitet.Method for determining a point spread function (PSF) for a light runtime camera (20) of a light transit time camera system (1) in which a single image I (x) of a reference scene with an object (40) in the foreground is detected by means of the light runtime camera (20) the condition that the reference scene is formed as a flat surface, wherein the single image I (x) is corrected by means of a first Punkttspreizfunktion, wherein to determine a correction point spread function parameters of the first point spread function are changed until a difference between the corrected image I '(x) and an expected image I 0 (x) is minimal and / or falls below a threshold. Verfahren zur Ermittlung einer Punktspreizfunktion für eine Lichtlaufzeitkamera (20) eines Lichtlaufzeitkamerasystems (1), bei dem mit Hilfe der Lichtlaufzeitkamera (20) ein 3D-Bild I(x) einer Stufe eines Referenzobjekts erfasst wird, wobei das Referenzobjekt eine Stufe definierter Höhe aufweist und die Flächen der Stufe eben ausgebildet und planparallel zueinander angeordnet sind, und das Referenzobjekt in Relation zur Lichtlaufzeitkamera (20) so angeordnet ist, dass an der Kante der Stufe ein Entfernungssprung zur entfernteren Stufenebene erfolgt, wobei zur Ermittlung einer Korrektur-Punktspreizfünktion Parameter der ersten Punktspreizfunktion solange verändert werden, bis ein Unterschied zwischen dem korrigierten Bild I'(x) und einem zu erwarteten Bild I0(x) minimal ist und/oder einen Grenzwert unterschreitet.A method for determining a point spreading function for a light runtime camera (20) of a light time camera system (1), in which using the light time camera (20) a 3D image I (x) of a stage of a reference object is detected, wherein the reference object has a level of defined height and the surfaces of the step are planar and arranged plane-parallel to each other, and the reference object is arranged in relation to the time of flight camera (20) so that at the edge of the stage a distance jump to the more distant level level takes place, wherein for determining a correction Punkttspreizfünktion parameters of the first Punkttspreizfunktion be changed until a difference between the corrected image I '(x) and an expected image I 0 (x) is minimal and / or falls below a threshold. Lichtlaufzeitkamera (20) für ein Lichtlaufzeitkamerasystem (1), mit einem Lichtlaufzeitsensor (22) mit mehreren Lichtlichtlaufzeitpixeln (23) zur Ermittlung einer Phasenverschiebung eines ausgesendeten und empfangenen Lichts (Sp2), wobei ausgehend von den erfassten Phasenverschiebungen (Δφ) Entfernungswerte (d) ermittelt werden, dadurch gekennzeichnet, dass die Lichtlaufzeitkamera (20) einen Speicher aufweist, in dem zumindest Parameter einer Punktspreizfunktion (PSF), die nach einem Verfahren gemäß der Ansprüche 1 oder 2 ermittelt wurde, abgelegt sind, wobei die Punktspreizfunktion (PSF) ein Streulichtverhalten und ein Signalübersprechen der Lichtlaufzeitkamera (20) und des Lichtlaufzeitsensors (22) berücksichtigt, mit einer Auswerteeinheit, die derart ausgestaltet ist, dass anhand der abgelegten Punktspreizfunktion (PSF) ein erfasstes Bild (I(x)) entfaltet und ein korrigiertes Bild (I0(x)) ermittelt wird, und dass die Ermittlung der Phasenverschiebungen (Δφ) bzw. Entfernungswerte (d) anhand des korrigiertes Bilds (I0(x)) erfolgt.A light transit time camera (20) for a light transit time camera system (1), comprising a light transit time sensor (22) with a plurality of light runtime pixels (23) for determining a phase shift of a transmitted and received light (Sp2), wherein distance values (d) are determined based on the detected phase displacements (Δφ) are characterized in that the light runtime camera (20) comprises a memory in which at least parameters of a point spreading function (PSF), which according to a method according to Claims 1 or 2 was determined, the point spread function (PSF) a scattered light behavior and a signal crosstalk of the light runtime camera (20) and the light transit time sensor (22) considered, with an evaluation that is designed such that based on the stored point spread function (PSF) a captured image (I (x)) is unfolded and a corrected image (I 0 (x)) is determined, and that the determination of the phase shifts (Δφ) and distance values (d) takes place on the basis of the corrected image (I 0 (x)). Lichtlaufzeitkamera (20) nach Anspruch 3, bei dem die Punktspreizfunktion (PSF) komplexwertig ist.Photocell camera (20) after Claim 3 in which the point spread function (PSF) is complex-valued. Lichtlaufzeitkamera (20) nach einem der vorhergehenden Vorrichtungsansprüche, bei dem die Entfaltung des erfassten Bilds (I(x)) und der abgelegten Punktspreizfunktion (PSF) im Fourierraum erfolgt.The light transit time camera (20) according to one of the preceding device claims, wherein the unfolding of the captured image (I (x)) and the stored point spread function (PSF) is performed in Fourier space. Lichtlaufzeitkamera (20) nach einem der vorhergehenden Vorrichtungsansprüche, bei dem die Punktspreizfunktion (PSF) als Matrix oder Lookup-Table im Speicher abgelegt ist.The time of flight camera (20) according to one of the preceding device claims, wherein the point spread function (PSF) is stored as a matrix or lookup table in the memory. Lichtlaufzeitkamera (20) nach einem der vorhergehenden Vorrichtungsansprüche, bei dem die Punktspreizfunktion (PSF) als Fouriertransformierte im Speicher abgelegt ist.The time of flight camera (20) according to one of the preceding device claims, in which the point spread function (PSF) is stored in the memory as a Fourier transform. Lichtlaufzeitkamera (20) nach einem der vorhergehenden Vorrichtungsansprüche, bei dem die Punktspreizfunktion (PSF) auf einem externen Gerät gespeichert ist und die Korrektur der Phasenverschiebungen (Δφ) oder Entfernungswerte (d) auf dem externen Gerät erfolgt.A time of flight camera (20) according to any one of the preceding apparatus claims, wherein the point spreading function (PSF) is stored on an external device and the correction of the phase shifts (Δφ) or distance values (d) is done on the external device.
DE102017205745.9A 2017-04-04 2017-04-04 Time of flight camera Pending DE102017205745A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017205745.9A DE102017205745A1 (en) 2017-04-04 2017-04-04 Time of flight camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017205745.9A DE102017205745A1 (en) 2017-04-04 2017-04-04 Time of flight camera

Publications (1)

Publication Number Publication Date
DE102017205745A1 true DE102017205745A1 (en) 2018-10-04

Family

ID=63524516

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017205745.9A Pending DE102017205745A1 (en) 2017-04-04 2017-04-04 Time of flight camera

Country Status (1)

Country Link
DE (1) DE102017205745A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (en) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Method and device for determining the phase and / or amplitude information of an electromagnetic wave
DE112008003342T5 (en) * 2007-12-18 2011-01-13 Iee International Electronics & Engineering S.A. Recording 3D images of a scene
US20170091910A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Facilitating projection pre-shaping of digital images at computing devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (en) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Method and device for determining the phase and / or amplitude information of an electromagnetic wave
DE112008003342T5 (en) * 2007-12-18 2011-01-13 Iee International Electronics & Engineering S.A. Recording 3D images of a scene
US20170091910A1 (en) * 2015-09-25 2017-03-30 Intel Corporation Facilitating projection pre-shaping of digital images at computing devices

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IMAGEJ: Deconvolution. Stand 22.03.2017. URL: https://imagej.net/Deconvolution [abgerufen am 07.03.2018] *

Similar Documents

Publication Publication Date Title
DE102018107801A1 (en) Time of flight camera
DE112008003342B4 (en) Recording 3D images of a scene
DE69207176T2 (en) Optical sensor
EP3537339A2 (en) Camera and method for detecting image data
DE60125683T2 (en) Arrangement and method for distance measurement
DE102015205826B4 (en) Distance measuring system with time-of-flight pixel line
DE102014108310B4 (en) Optical runtime system
EP1405097B1 (en) Method and device for suppressing electromagnetic background radiation in an image
DE112018000284B4 (en) Providing a dynamic field of view for light received from a dynamic location
EP0645009A1 (en) Process for calibrating an image processing system
DE102009046108A1 (en) camera system
DE102020003651A1 (en) Distance determining device having a function for determining the illuminance and a method for determining the illuminance of external light
DE102010043723B4 (en) time-of-flight camera system
DE102019123449A1 (en) Time-of-flight camera system with a high dynamic range
WO2007036553A1 (en) Device and method for recording distance images
DE19851010B4 (en) Device for the detection and localization of laser radiation sources
DE102017205743A1 (en) Time of flight camera
DE102017205745A1 (en) Time of flight camera
DE102016219518B4 (en) Time of flight camera system
DE102020123671B4 (en) Method and device for dynamic expansion of a time-of-flight camera system
WO2018172258A1 (en) Spad-based lidar system
DE102017221797A1 (en) Lidar system for environment detection and method for operating a lidar system
DE102016219515A1 (en) Time of flight camera system
DE102019133515B3 (en) Method and device for parallax determination of recordings of a multi-lens camera system
DE102017200879B4 (en) Time-of-flight camera and method for operating one

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: PMDTECHNOLOGIES AG, 57076 SIEGEN, DE

R082 Change of representative

Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE