WO2017144690A1 - Lichtlaufzeitkamerasystem - Google Patents

Lichtlaufzeitkamerasystem Download PDF

Info

Publication number
WO2017144690A1
WO2017144690A1 PCT/EP2017/054381 EP2017054381W WO2017144690A1 WO 2017144690 A1 WO2017144690 A1 WO 2017144690A1 EP 2017054381 W EP2017054381 W EP 2017054381W WO 2017144690 A1 WO2017144690 A1 WO 2017144690A1
Authority
WO
WIPO (PCT)
Prior art keywords
phase
distance
difference
noise
measurement
Prior art date
Application number
PCT/EP2017/054381
Other languages
English (en)
French (fr)
Inventor
Lutz Heyne
Stefan Becker
Original Assignee
pmdtechnologies ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by pmdtechnologies ag filed Critical pmdtechnologies ag
Publication of WO2017144690A1 publication Critical patent/WO2017144690A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Definitions

  • the invention relates to a light transit time camera system and a method for operating such according to the preamble of the independent claims.
  • time of flight camera system not only systems are to be included which determine distances directly from the light transit time, but in particular also all the time of flight or 3D TOF camera systems which acquire transit time information from the phase shift of an emitted and received radiation.
  • PMD cameras with photonic mixer detectors are suitable as the light propagation time or 3D TOF cameras, as they are inter alia. described in DE 197 04 496 AI and, for example, by the company 'ifm electronic GmbH' or 'PMD Technologies GmbH' as a frame grabber 03D or as CamCube to relate.
  • the PMD camera allows a flexible arrangement of the light source and the detector, which can be arranged both in a housing and separately.
  • the object of the invention is to improve the distance measurement of a light transit time camera system.
  • a time-of-flight camera system which is designed to determine distance values from a phase shift of an emitted and received modulated signal, is advantageous.
  • a light transit time sensor for receiving and demodulating the received signal with at least one light transit time pixel
  • the system being designed such that for at least two different ones
  • Modulation frequencies are determined in each case a distance value and / or phase amplitudes
  • a disturbance of the measurement in particular a multipath propagation, is detected.
  • This procedure has the advantage that critical faults can be detected on the basis of easily detectable quantities.
  • Multipath propagation can be influenced differently.
  • the system is designed in such a way that the difference of the distance values is compared with an integral multiple of a frequency-dependent value, and a disturbance of the measurement is recognized if the difference of the two values exceeds a predefined limit value GW, according to the relation: 3z E TL ⁇ ⁇ D - D 2 - z ⁇ D (f 1 , f 2 ⁇ ⁇ GW D.
  • the limit value is determined as a function of a distance noise model.
  • a disturbance of the measurement is detected if a
  • the limit value is preferably determined as a function of an amplitude noise model.
  • FIG. 1 is a schematic view of a time-of-flight camera system
  • FIG. 2 shows a modulated integration of generated charge carriers
  • FIG. 3 shows processes of charge integration as a function of the phase shift and displacement
  • FIG. 4 shows a relation of the phase shift in an IQ diagram
  • FIG. 5 shows a modulation course for a distance measurement over four phase positions
  • FIG. 6 shows a range finding disturbed by multipath propagation
  • FIG. 7 shows a multipath propagation in the IQ phase diagram
  • FIG. 8 shows a multipath propagation in the IQ phase diagram for two different frequencies
  • FIG. 9 shows a modulo diagram for a two frequency measurement
  • FIG. 1 shows a measurement situation for an optical distance measurement with a
  • Photocell camera as known for example from DE 197 04 496 AI.
  • the light transit time camera system 1 comprises a transmitting unit or a lighting 10 with a light source 12 and associated beam shaping optics 15 and a
  • the light transit time sensor 22 has at least one transit time pixel, preferably also a pixel array, and is designed in particular as a PMD sensor.
  • the receiving optic 25 typically consists of improving the imaging characteristics of a plurality of optical elements.
  • the beam-shaping optical system 15 of the transmitting unit 10 can be used, for example, as
  • Reflector or lens optics may be formed.
  • optical elements can also be dispensed with both on the receiving side and on the transmitting side.
  • the measurement principle of this arrangement is essentially based on the fact that, based on the phase shift of the emitted and received light, the transit time and thus the distance covered by the received light can be determined.
  • the light source 12 and the light transit time sensor 22 via a modulator 30 together with a certain modulation signal M 0 with a base phase position ⁇ acted upon.
  • a phase shifter 35 is further provided between the modulator 30 and the light source 12, with which the base phase ⁇ of
  • Modulation signal Mo of the light source 12 can be shifted by defined phase positions (p va r.)
  • the light source 12 transmits
  • the modulation signal M 0 is mixed with the received signal S p2 , wherein from the
  • illumination source or light source 12 are preferably infrared light emitting diodes.
  • illumination source or light source 12 are preferably infrared light emitting diodes.
  • other radiation sources in other frequency ranges are conceivable, in particular, light sources in the visible frequency range are also considered.
  • the basic principle of the phase measurement is shown schematically in FIG.
  • the upper curve shows the time profile of the modulation signal Mo with which the illumination 12 and the light transit time sensor 22 are activated.
  • the reflected light from the object 40 hits as received signal S p2 according to its light transit time tL phase-shifted ⁇ ( ⁇ ) to the light transit time sensor 22.
  • the light transit time sensor 22 collects the photonically generated
  • the charge at the first gate Ga increases again, so that as a result the charge difference increases again in order then to reach a maximum again at 360 ° or 0 °.
  • Correlation function a triangle function.
  • the result would be a cosine function.
  • a phase phase measurement is only up to one phase
  • the IQ (in-phase quadrature) method is known in which two measurements with shifted by 90 °
  • phase angle can then be determined in a known manner via an arctan function or arctan2 function:
  • Phase angle can be determined as follows.
  • ⁇ or ⁇ ( ⁇ ) can be for object distances d, which are smaller than half the wavelength ⁇ of the modulation frequency d ⁇ / 2, determine a distance in a known manner.
  • d Am (t T ) - ⁇ -
  • FIG. 5 shows a complete set of a distance measurement with four phase positions of 0 °, 90 °, 180 ° and 270 °.
  • charge carriers are respectively integrated over modulation periods and in each phase position one of the charge difference
  • Phase shift and a corresponding distance value can be determined.
  • FIG. 6 shows a situation in which a measuring point MP at an object 40.1 is illuminated by the illumination 10 of the light transit time camera system 1 over two paths.
  • a measuring point MP at an object 40.1 is illuminated by the illumination 10 of the light transit time camera system 1 over two paths.
  • the measuring point is thus illuminated directly on the one hand and indirectly on the other object 40.2 on the other hand.
  • the light transit time sensor 22 of the time of flight camera 20 thus receives for this measurement point MP a primary reception signal Sp2 with a phase position p2 which corresponds to twice the object distance and a secondary reception signal Sp2 'whose phase position p2' is increased by the additional distance via the second object 40.2.
  • FIG. 7 shows the situation according to FIG. 6 in a phase diagram.
  • a phase-shift A ((tL> or, more simply, a phase angle ⁇ is determined.) If there is no multiple illumination of the measuring point MP, the phase angle ⁇ corresponds to the actual object distance.
  • phase angle ⁇ of the actual object distance or of the primary received signal Sp2 is superimposed by the phase ⁇ of the secondary received signal Sp2 '. Since only the sum of the two received signals Sp2, Sp2 'at the measuring point MP can be detected at the sensor 22, the phase angles ⁇ , ⁇ add up to an apparent phase angle ⁇ ', which in the illustrated case is greater than the phase angle ⁇ of the actual one
  • the size of the deviation depends primarily on the phase amplitude of the secondary received signal Sp2 'or the strength of the reflection on the second object 40.2.
  • reflections that cause a phase shift of the signal are disturbing.
  • the intensity of the reflection is mainly influenced by the angle of incidence, the material properties and the surface condition. Particularly problematic here are glass surfaces in the case of a striped incidence, since here the incident light is reflected almost without losses in the form of Fresnel reflection. Room corners are also problematic since a measuring point MP can be illuminated from a multiplicity of spatial directions by diffuse reflection of the illuminating light on the adjacent wall.
  • One possible implementation of the MPI plausibility check is the respective comparison of the individual calculated distances and / or the phase amplitudes of the individual multi-frequency measurements.
  • Noise-induced triggering of the flags can be avoided.
  • it is provided to automatically correct the MPI by the inventive multi-frequency measurement.
  • FIG. 8 shows a phase diagram by using, as an example, two frequencies Fi, F 2 for detecting multipath propagation.
  • the solid line is the phase amplitude A (Sp 2 ) of the correct distance
  • the dashed line the phase amplitude A (S p2 ') of the additional propagation path
  • the dotted line the resulting phase amplitude Ai (Sp 2 + Sp 2 '), A 2 (Sp 2 + Sp 2 ').
  • Phase amplitude be independent of the frequency.
  • normalization takes place, to correct for frequency and distance dependent wiggling and frequency dependent efficiency.
  • phase amplitude should decrease
  • phase amplitude Ai (Sp2 + Sp 2 '), A 2 (Sp 2 + Sp 2 ') is usually different from frequency to frequency, since the different signals have different phases and over the frequency
  • a threshold may be set in the following manner.
  • the amplitude differences can also be determined directly from the difference:
  • a filter e.g., median 3x3 kernel
  • the difference of the respective distances D - D 2 may only be integer multiples z of a known value which depends only on the respective frequencies D (f 1 , f 2)
  • the frequencies are preferably selected in the ratio of small integer numbers.
  • pair Noise A with a Noise D distance noise level This can also be calculated based on the noise model and individually prevents a
  • a filter e.g., median 3x3 kernel
  • the calculation is a pixel-individual
  • Noise card advantageous, which precisely reflects the respective temporal noise.
  • no history is used, but based on current measurement data (phase amplitude, phase, background light intensity) with a special noise model and deposit
  • Calibration parameters calculates the individual noise. This knowledge means a significant gain in terms of quality, reliability and data quality real-time capable can be evaluated.
  • the information can be used in a variety of ways to improve data quality - either internally for post-processing or as advanced information for top-level applications
  • the shot noise is characterized by the total accumulated number of electrons N and the constant ktc readout noise by the term ktc.
  • the noise of the difference signal D of the two readout nodes A and B is relevant.
  • the sum signal can be divided into a background light component and the portion of the active light.
  • c denotes the constant system contrast
  • the core of the idea of the invention is the return of the relevant for the noise
  • the parameters can either be assumed to be global or can be extracted in part from the camera-specific calibration data.
  • the calculated distances can also be used to output noise images that agree very well with the true temporal noise.
  • FIG. 9 shows by way of example a determination of a distance value using two modulation frequencies. Measurements with two frequencies are preferably used to avoid ambiguity in a distance measurement.
  • Phase angle ⁇ 2 of the second frequency f 2 applied Phase angle ⁇ 2 of the second frequency f 2 applied.
  • the distance values corresponding to the respective phase angle pairing are plotted on the curves.
  • the curve starts with the phase difference pair (0
  • 0) with the distance 0. If the total path length of the light reflected by the object reaches the wavelength ⁇ 40 m of the first modulation frequency, the phase value also reaches its maximum value, namely 2 ⁇ with the phase value pair (2
  • Modulodiagramms is an example of the application DE 10 2013 207 647A1 referenced.
  • a distance may be determined by assigning a detected phase value pair to a distance point of the distance curve.
  • Phase value pairs are only ideally located on the distance curve and typically deviate therefrom for example due to noise.
  • a measured phase value pair (number 1) with (1.05 I 0.85) is shown by way of example.
  • This phase value pair is not on the distance curve and is now a distance point on one of the two curve sections of the distance curve assigned.
  • the distance dAB between the curve sections is known.
  • the phase value pair (number 1) can be assigned a distance value of 23 m. Since the total light path to the object is plotted back and forth in the diagram shown, this value must be halved for determining an object distance.
  • FIG. 10 shows an embodiment of the procedure according to the invention, in which for the
  • phase value pairs are used, which are within a tolerated distance or tolerated signal to noise ratio dR to the distance curve.
  • the tolerated signal to noise ratio dR derives, for example, from the
  • Phase value pair (digit 1) is within the tolerated distance dA, i ⁇ dR and is evaluated for the distance measurement as a valid phase value pair.
  • the second drawn-in phase value pair (digit 2) lies outside the tolerated distance dA, 2> dR and is discarded as an invalid phase value pair.
  • the tolerated distance dR can be adapted to the application, but it is preferably provided to determine the distance dR on the basis of the noise behavior of the measuring system. For measured values or phase value pairs that are outside of the measurement noise, it can be assumed that the signals on which these values are based are disturbed, for example, by multipath propagation or possibly other mechanisms.

Abstract

Lichtlaufzeitkamerasystem (1), das für die Ermittlung von Entfernungswerten (φ, d) aus einer Phasenverschiebung (Δφ(tL))eines emittierten und empfangenen modulierten Signals (Sp1, Sp2) ausgebildet ist, mit einer Beleuchtung (10) zur Aussendung des modulierten Signals (Sp1) und einem Lichtlaufzeitsensor (20) zum Empfang und Demodulation des empfangenen Signals (Sp2) mit wenigstens einem Lichtlaufzeitpixel, wobei das System (1) derart ausgebildet ist, dass für wenigstens zwei unterschiedliche Modulationsfrequenzen jeweils ein Entfernungswert (φ, d, D1, D2) ermittelt wird, mit einer Auswerteeinheit, die derart ausgestaltet ist, dass ausgehend von einer Differenz der Entfernungswerteund/oder einem Unterschied der Phasenamplituden (A1, A2) eine Störung einer Messung erkannt wird.

Description

Lichtlaufzeitkamerasystem
Die Erfindung betrifft ein Lichtlaufzeitkamerasystem und ein Verfahren zum Betreiben eines solchen nach Gattung der unabhängigen Ansprüche.
Mit Lichtlaufzeitkamerasystem sollen nicht nur Systeme umfasst sein, die Entfernungen direkt aus der Lichtlaufzeit ermitteln, sondern insbesondere auch alle Lichtlaufzeit bzw. 3D- TOF-Kamerasysteme, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u.a. in der DE 197 04 496 AI beschrieben und beispielsweise von der Firma 'ifm electronic GmbH' oder 'PMD-Technologies GmbH' als Frame-Grabber 03D bzw. als CamCube zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
Aus der DE 197 04 496 AI ist ferner die Bestimmung einer Entfernung bzw. einer entsprechenden Phasenverschiebung des von einem Objekt reflektierten Lichts bekannt. Insbesondere wird offenbart, die Sendermodulation gezielt um 90°, 180° oder 270° zu verschieben, um aus diesen vier Phasenmessungen über eine arctan-Funktion eine
Phasenverschiebung und somit eine Entfernung zu bestimmen.
Aufgabe der Erfindung ist es, die Entfernungsmessung eines Lichtlaufzeitkamerasystems zu verbessern.
Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße
Lichtlaufzeitkamerasystem nach Gattung des Anspruchs 1 gelöst.
Vorteilhaft ist ein Lichtlaufzeitkamerasystem, das für die Ermittlung von Entfernungswerten aus einer Phasenverschiebung eines emittierten und empfangenen modulierten Signals ausgebildet ist,
mit einer Beleuchtung zur Aussendung des modulierten Signals
und einem Lichtlaufzeitsensor zum Empfang und Demodulation des empfangenen Signals mit wenigstens einem Lichtlaufzeitpixel,
wobei das System derart ausgebildet ist, dass für wenigstens zwei unterschiedliche
Modulationsfrequenzen jeweils ein Entfernungswert und/oder Phasenamplituden ermittelt werden,
mit einer Auswerteeinheit, die derart ausgestaltet ist, dass ausgehend von einer Differenz der Entfernungswerte,
und/oder einem Unterschied der Phasenamplituden eine Störung der Messung insbesondere eine Mehrwegausbreitung erkannt wird.
Dieses Vorgehen hat den Vorteil, dass kritische Störungen anhand gut erfassbarer Größen erkannt werden können. Insbesondere ist es von Vorteil, dass neben den Distanzwerten auch Phasenamplituden untersucht werden können, die beispielsweise durch
Mehrwegausbreitungen unterschiedlich beeinflusst werden können.
Bevorzugt ist das System derart ausgebildet, dass die Differenz der Entfernungswerte mit einem ganzzahligen Vielfachen eines frequenzabhängigen Wertes verglichen wird, und eine Störung der Messung erkannt wird, wenn die Differenz beider Werte einen vorgegebenen Grenzwert GW übersteigt, gemäß der Relation: 3z E TL · \D — D2— z D (f1, f2 \ < GWD .
Nützlich ist es, wenn der Grenzwert in Abhängigkeit eines Distanzrauschmodells festgelegt wird.
In einer weiteren Ausgestaltung wird eine Störung der Messung erkannt, wenn eine
Auswertung der Phasenamplituden einen vorgegeben Grenzwert überschreitet.
Bevorzugt wird der Grenzwert in Abhängigkeit eines Amplitudenrauschmodells festgelegt.
Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
Es zeigen:
Figur 1 schematisch ein Lichtlaufzeitkamerasystem,
Figur 2 eine modulierte Integration erzeugter Ladungsträger,
Figur 3 Verläufe der Ladungsintegration abhängig von der Phasenverschiebung und -läge,
Figur 4 eine Relation der Phasenverschiebung in einem IQ-Diagramm,
Figur 5 einen Modulationsverlauf für eine Entfernungsmessung über vier Phasenlagen,
Figur 6 eine durch Mehrwegausbreitung gestörte Entfernungsmessung,
Figur 7 eine Mehrwegausbreitung im IQ-Phasendiagramm,
Figur 8 eine Mehrwegausbreitung im IQ-Phasendiagramm für zwei unterschiedliche Frequenzen,
Figur 9 ein Modulodiagramm für eine zwei Frequenzmessung,
Figur 10 ein Modulodiagramm mit einem Rauschanteil. Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
Figur 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer
Lichtlaufzeitkamera, wie sie beispielsweise aus der DE 197 04 496 AI bekannt ist.
Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. eine Beleuchtung 10 mit einer Lichtquelle 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine
Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem
Lichtlaufzeitsensor 22.
Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel- Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als
Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.
Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Licht laufzeitsensor 22 über einen Modulator 30 gemeinsam mit einem bestimmten Modulationssignal M0 mit einer Basisphasenlage φο beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φο des
Modulationssignals Mo der Lichtquelle 12 um definierte Phasenlagen (pvar verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von (p var = 0°, 90°, 180°, 270° verwendet.
Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein
intensitätsmoduliertes Signal Spl mit der ersten Phasenlage pl bzw. pl = φο + ( var aus. Dieses Signal Spl bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben Δφ(^) mit einer zweiten Phasenlage p2 = φο + (pvar + Δφ(^) als
Empfangssignal Sp2 auf den Licht laufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal M0 mit dem empfangenen Signal Sp2 gemischt, wobei aus dem
resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird. Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden. Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.
Das Grundprinzip der Phasenmessung ist schematisch in Figur 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals Mo mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal Sp2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(^) auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten
Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals Mo in einem ersten Akkumulationsgate bzw. Integrationsknoten Ga und in einer um 180° verschobenen Phasenlage Mo + 180° in einem zweiten Integrationsknoten Gb. Aus der Differenz der im ersten und zweiten Knoten Ga, Gb gesammelten Ladungen qa, qb lässt sich die Phasenverschiebung Δφ(^) und somit eine Entfernung d des Objekts bestimmen.
Figur 3 a und 3b zeigen Verläufe der normierten Ladungsdifferenz Aq = qa - qb / (qa + qb) in Abhängigkeit der Phasenverschiebung Δφ(ΐ^ des empfangenen Lichtsignals Sp2 mit unterschiedlichen Phasenlagen. Die Figur 3 a zeigt einen Verlauf für eine unverschobene Modulationsphase Mo mit einer Phasenlage ( Var = 0° .
Bei einem Auftreffen des Signals Sp2 ohne Phasenverschiebung also Δφ(ΐ^ = 0°,
beispielsweise, wenn das Sendesignal Spl direkt auf den Sensor gelenkt wird, sind die Phasen der Modulation Mo und vom empfangenen Signal Sp2 identisch, so dass alle erzeugten Ladungsträger phasensynchron am ersten Integrationsknoten Ga erfasst werden und somit ein maximales Differenzsignal mit Aq = 1 anliegt.
Mit zunehmender Phasenverschiebung nimmt die am ersten Integrationsknoten Ga akkumulierte Ladung ab und am zweiten Integrationsknoten Gb zu. Bei einer
Phasenverschiebung von Δφ(ΐ^ = 90° sind die Ladungsträger qa, qb an beiden
Integrationsknoten Ga, Gb gleich verteilt und die Ladungsdifferenz somit Null und nach 180° Phasenverschiebung "-1". Mit weiter zunehmender Phasenverschiebung nimmt die Ladung am ersten Gate Ga wieder zu, so dass im Ergebnis die Ladungsdifferenz wieder ansteigt, um dann bei 360° bzw. 0° wieder ein Maximum zu erreichen.
Mathematisch handelt es sich hierbei um eine Korrelationsfunktion des empfangenen Signals Sp2 mit dem modulierenden Signal Mo. q(r) = \ Sp2 (t - T)M0 (t)dt
o
Bei einer Modulation mit einem Rechtecksignal ergibt sich wie bereits dargestellt als
Korrelationsfunktion eine Dreiecksfunktion. Bei einer Modulation mit beispielsweise einem Sinussignal wäre das Ergebnis eine Kosinusfunktion.
Wie Figur 3 a zeigt, ist eine Messung der Phase mit einer Phasenlage nur bis zu einer
Phasenverschiebung Δφ(^) < 180° eindeutig.
Zur maximalen Erfassung der Phasenverschiebung ist beispielsweise das IQ (Inphase- Quadratur) Verfahren bekannt, bei dem zwei Messungen mit um 90° verschobenen
Phasenlagen durchgeführt werden, also beispielsweise mit der Phasenlage ( Var = 0° und (pvar = 90° . Das Ergebnis einer Messung mit der Phasenlage φ var = 90° ist in Figur 5b dargestellt.
Die Beziehung dieser beiden Kurven lässt sich in bekannter Weise beispielsweise für sinusförmige Kurvenverläufe in einem IQ-Diagramm bzw. Phasendiagramm gem. Figur 4 darstellen. In erster Näherung ist diese Darstellung ohne weiteres auch für die dargestellten Dreiecksfunktionen anwendbar.
Der Phasenwinkel lässt sich dann in bekannter Weise über eine arctan-Funktion bzw. arctan2- Funktion bestimmen:
Figure imgf000007_0001
Um beispielsweise Asymmetrien des Sensors zu kompensieren, können zusätzliche verschobene Phasenmessungen durchgeführt werden, so dass sich im Ergebnis der
Phasenwinkel wie folgt bestimmen lässt.
Figure imgf000007_0002
Oder verkürzt formuliert: φ = arctan -
Wobei die Indizes die jeweilige Phasenlage der Differenzen a; andeuten, mit ax = Aq(0°) usw. Aus der Phasenverschiebung φ bzw. Δφ(^) lassen sich für Objektabstände d, die kleiner sind als die halbe Wellenlänge λ der Modulationsfrequenz d < λ/2, in bekannter Weise ein Abstand bestimmen. d = Am(tT )—
In Figur 5 ist ein vollständiger Satz einer Entfernungsmessung mit vier Phasenlagen von 0°, 90°, 180° und 270° dargestellt. Im dargestellten Fall werden Ladungsträger jeweils über Modulationsperioden integriert und in jeder Phasenlage ein der Ladungsdifferenz
entsprechender Wert ai , a2, a3, a4 ausgelesen, woraus sich wie bereits dargestellt eine
Phasenverschiebung und ein entsprechender Entfernungswert ermitteln lässt.
Figur 6 zeigt eine Situation, bei der ein Messpunkt MP an einem Objekt 40.1 über zwei Wege von der Beleuchtung 10 des Lichtlaufzeitkamerasystems 1 beleuchtet wird. Im dargestellten Fall liegt innerhalb des Ausleuchtungsbereichs des Lichtlaufzeitkamerasystems 1 ein reflektierendes Objekt 40.2 an dem das von der Beleuchtung 10 emittierte Licht in Richtung des Messpunkts MP reflektiert wird. Der Messpunkt wird somit zum einen direkt und zum anderen indirekt über Reflektion an dem weiteren Objekt 40.2 beleuchtet. Der
Lichtlaufzeitsensor 22 der Lichtlaufzeitkamera 20 erhält somit für diesen Messpunkt MP ein primäres Empfangssignal Sp2 mit einer Phasenlage p2, die der zweifachen Objektentfernung entspricht und ein sekundäres Empfangssignal Sp2', dessen Phasenlage p2' um den zusätzlichen Weg über das zweite Objekt 40.2 vergrößert ist.
Figur 7 zeigt die Situation gemäß Figur 6 in einem Phasendiagramm. Anhand der erfassten Phasenlagen p2 des Empfangssignals S wird wie zuvor beschrieben eine laufzeitbedingte Phasenverschiebung A( (tL> bzw. vereinfacht ein Phasenwinkel φ ermittelt. Liegt keine mehrfache Beleuchtung des Messpunktes MP vor, korrespondiert der Phasenwinkel φ mit der tatsächlichen Objektentfernung.
Der Phasenwinkel φ der tatsächlichen Objektentfernung bzw. des primären Empfangssignals Sp2 wird jedoch durch die Phase ß des sekundären Empfangssignals Sp2' überlagert. Da am Sensor 22 nur die Summe der beiden Empfangssignale Sp2, Sp2' am Messpunkt MP erfasst werden kann, summieren sich die Phasenwinkel φ, ß zu einem scheinbaren Phasenwinkel φ', der im dargestellten Fall größer ist als der Phasenwinkel φ der tatsächlichen
Objektentfernung. Die Größe der Abweichung hängt vornehmlich von der Phasenamplitude des sekundären Empfangssignals Sp2' bzw. der Stärke der Reflektion am zweiten Objekt 40.2 ab. Ebenso sind auch Reflektionen störend, die eine Phasenverschiebung des Signals verursachen. Die Stärke der Reflektion wird hauptsächlich durch den Einfallswinkel, den Materialeigenschaften und der Oberflächenbeschaffenheit beeinflusst. Problematisch können hier insbesondere Glasoberflächen bei einem streifen Einfall sein, da hier in Form einer Fresnelreflektion das einfallende Licht fast ohne Verluste reflektiert wird. Problematisch sind auch Raumecken, da durch diffuse Reflektion des beleuchtenden Lichts an der angrenzenden Wand ein Messpunkt MP aus einer Vielzahl von Raumrichtungen beleuchtet werden kann.
Kerngedanke der Erfindung ist es Mehrweg-Interferenzen (Multi-Path-Interference - MPI) mit Hilfe einer begrenzten Anzahl von Messungen (>=2) mit unterschiedlichen
Modulationsfrequenzen zu detektieren und die betroffenen Pixel zu maskieren. Die
Genauigkeit der Messung kann mit zunehmender Anzahl von Messungen mit
unterschiedlicher Frequenz erhöht werden.
Grundsätzlich kann mit Hilfe der Mehrfrequenzmessungen und die damit einhergehende Überbestimmtheit im klassischen Fall (nur ein Target) dazu benutzt werden, um MPI zu detektieren.
Dies lässt sich auf verschiedene Arten realisieren. Eine mögliche Implementierung der MPI- Plausibilisierung ist das jeweilige Vergleichen der einzelnen berechneten Distanzen und/oder der Phasenamplituden der einzelnen Mehrfrequenzmessungen.
Um die Stabilität der MPI- Detektion zu erhöhen ist es von Vorteil, einen real vorhandenen Rauschlevel zu berücksichtigen. Durch dieses Vorgehen kann vorteilhaft, ein
rauschinduziertes Triggern der Flags vermieden werden. Vorteilhaft ist es vorgesehen, durch die erfindungsgemäßen Mehrfrequenzmessung die MPI automatisch zu korrigieren.
Figur 8 zeigt ein Phasendiagramm indem exemplarisch zwei Frequenzen Fi, F2 für die Erfassung einer Mehrwegausbreitung verwendet werden. Das Verfahren lässt sich aber analog auch auf mehr Frequenzen erweitern, wobei die Genauigkeit weiter gesteigert wird. Mit durchgezogener Linie ist die Phasenamplitude A(Sp2) der korrekten Distanz, mit gestrichelter Line die Phasenamplitude A(Sp2') des zusätzlichen Ausbreitungswegs und mit gepunkteter Line die resultierende Phasenamplitude Ai(Sp2 + Sp2'), A2(Sp2 + Sp2').
Falls nur ein Objekt bei verschiedenen Distanzen abgebildet wird, dann sollte die
Phasenamplitude unabhängig von der Frequenz sein. Vorzugsweise erfolgt eine Normierung, um ein Frequenz- und Distanz-abhängiges Wiggling und eine frequenzabhängige Effizienz zu korrigieren.
Im Normalfall, bei dem nur ein Ziel erfasst wird, sollte die Phasenamplitude nach
Normierung konstant und insbesondere von der Frequenz unabhängig sein.
Überlagern sich jedoch zwei oder mehr Signale, dann ist die resultierende Phasenamplitude Ai(Sp2 + Sp2'), A2(Sp2 + Sp2') in der Regel von Frequenz zu Frequenz verschieden, da die verschiedenen Signale unterschiedliche Phasen haben und sich über die Frequenz
unterschiedlich entwickeln. Diese Diskrepanz wird zum Erkennen von MPI benutzt. Wenn sich die PhasenamplitudenA-L , A2 der verschiedenen Frequenzen Fi, F2 um einen gewissen Betrag unterscheiden, dann ist das ein Hinweis auf MPI. Der Schwellbetrag ThresholdA kann für einen bessere Stabilität noch an das Amplitudenrauschen NoiseA gekoppelt sein (welches beispielsweise über ein Rauschmodel bekannt ist), um nicht durch hohes Grundrauschen ein Flag anschlagen zu lassen bzw. einen vorgegebenen Grenzwert GW nicht zu überschreiten. Dies ist von Vorteil, da hier quasi Differenzen gleich großer Signale (Phasenamplituden) ausgewertet werden, wobei sich die Varianzen addieren und das S/N sich verschlechtert. Ein Grenzwert kann beispielsweise in der folgenden Weise festgelegt werden.
< ThresholdA (NoiseA)
Figure imgf000010_0001
Die Amplitudenunterschiede können auch direkt aus der Differenz ermittelt werden:
\A - A2 \ < ThresholdA (NoiseA) = GWA
Selbstverständlich sind auch andere Betrachtungen denkbar, aus denen die Unterschiede der Phasenamplituden erkennbar sind.
Weiterhin kann es daher sinnvoll sein, vor dem Grenzwert Vergleich einen Filter (z.B. median 3x3 Kernel) zu verwenden, um das Rauschen weiter zu reduzieren.
Basis des Kriteriums ist, dass theoretisch im Normalfall, für die einzelnen Distanzen der Mehrfrequenz-Messung eine klare Abhängigkeit besteht. So darf die Differenz der jeweiligen Distanzen D — D2 nur ganzzahlige Vielfache z eines bekannten nur von den jeweiligen Frequenzen D (f1, f2 abhängigen Wertes betragen. Die Frequenzen werden vorzugsweise im Verhältnis kleiner ganzzahliger Zahlen gewählt,
also beispielsweise fl :f2 = Nl :N2 -> 60 MHz:80 MHz = 3 :4. Die Eindeutigkeitsbereiche UR1 , UR2 der jeweiligen Modulationsfrequenzen fl , £2 entsprechend der jeweiligen halben Modulationswellenlänge URl=c/2fl und UR2=c/2f2 (hier 2.5 m und 1.875 m). Der frequenzabhängige Wert berechnet sich dann wie folgt:
_ _ UR2
D (fl' f2 ) = ~N2 = ln
Im vorliegenden Fall berechnet sich D dann zu 0,625 m. Die zu erwartenden
Distanzdifferenzen entsprechen dann immer ganzzahligen Vielfachen des frequenzabhängigen Werts D. Liegt beispielsweise eine Entfernung Dl , D2 vor, die kleiner ist als der kleinste Eindeutigkeitsbereich (Hier UR2 = 1.875 m) ist z und somit die Differenz ohne MPI gleich Null:
Figure imgf000011_0001
bzw.
3ζ Ε Έ0 : D1 - D2 - z - D (f1, f2) = 0
Die Abweichung dieser Gleichung von Null ist auch ein Maß für MPI und kann mit einem Schwellwert versehen als Flag benutzt werden. Aus Gründen der Rausch-Stabilität empfiehlt es sich auch hier die Höhe des Grenzwertes ThresholdD an den Rauschlevel
NoiseA insbesondere an ein Distanzrauschlevel NoiseD zu koppeln. Auch dieser kann auf dem Rauschmodel aufbauend individuell berechnet werden und verhindert ein
rauschinduziertes Anschlagen der Flags. Somit ergibt sich:
3z E TL ·. \D1 - D2 - z - D if^ l < ThresholdD (NoiseD) = GWD
Weiterhin kann es sinnvoll sein, vor dem Grenzwert Vergleich einen Filter (z.B. median 3x3 Kernel) zu verwenden, um das Rauschen weiter zu reduzieren.
Im Hinblick auf eine Rauscherfassung, ist die Berechnung einer pixelindividuellen
Rauschkarte von Vorteil, die präzise das jeweilige zeitliche Rauschen wiederspiegelt. Dabei wird keine Historie verwendet, sondern basierend auf aktuellen Messdaten (Phasenamplitude, Phase, Hintergrundlichtintensität) mit einem speziellen Rauschmodel und hinterlegen
Kalibrationsparametern das individuelle Rauschen berechnet. Dieses Wissen bedeutet einen deutlichen Mehrgewinn, da auf diese Weise die Qualität der Daten zuverlässig, intuitiv und echtzeitfähig evaluiert werden kann. Die Information kann auf vielfältige Weise benutzt werden um die Datenqualität zu verbessern - entweder intern für ein post-Processing oder als erweiterte Information für Top-level Anwendungen
Es ist bekannt, dass für das Gesamt-Rauschen eines Pixels (im Elektronen Regime) gilt: dN2 = kTC2 + N. (1)
Dabei ist das Schrotrauschen durch die gesamte akkumulierte Elektronen- Anzahl N gekennzeichnet und das konstante ktc- Ausleserauschen durch den Term ktc. Für die ToF Entfernungsmessung ist das Rauschen des Differenzsignales D der beiden Ausleseknoten A und B relevant. Mittels Fehlerfortpflanzung folgt aus D = A-B für das D-Kanal Rauschen: dD2 = dA2 + dB2 = 2kTC2 + (A + B) (2)
In der Praxis ist das Summensignal S = A+B oft nicht bekannt, da bei der 4-Phasen-Messung oft nur die Differenz D=A-B ausgelesen wird.
Allgemein lässt sich das Summensignal in einen Hintergrundlichtanteil und den Anteil des aktiven Lichtes zerlegen. Mit der gemessenen Amplitude Amp der 4-Phasen Messung und mit dem bestimmten Hintergrundlichtanteil / (mittels einer extra Messung ohne aktives Licht und mit statischer Ladungsschaukel) lässt sich das Summensignal S rekonstruieren: s = Arnp + I (3)
c
Dabei kennzeichnet c den konstanten Systemkontrast.
Mit Chip-individuellen Umrechnungsfaktoren k lässt sich die Formel aus der
Elektronendomain in die Spannungsdomain umrechnen und man erhält für das Amplituden- Rauschen dAmp (folgt über Fehlerrechnung aus dem Differenzsignalrauschen):
dAmp2 = k + k2Amp + k3I (4)
Aus dem Amplitudenrauschen folgen nun über eine Fehlerfortpflanzungsrechnung direkt das gesuchte Phasenrauschen (und damit auch das Distanzrauschen): dvhi = ^L (5)
r Amp '
Kern des Erfindungsgedanken ist die Rückführung der für das Rauschen relevanten
Elektronenzahl auf die gemessene Amplitude und die vorzugsweise in einem extra Frame bestimmte Intensität (Gleichung 3) und die Verknüpfung von Amplitude und Intensität mit dem Distanzrauschen über Kalibrationsparameter (Gleichung 4).
Die Parameter können entweder als global angenommen werden, oder lassen sich zum Teil aus den kameraindividuellen Kalibrationsdaten extrahieren.
Mit den berechneten Distanzen lassen sich so auch Rauschbilder ausgeben, die sehr gut mit dem wahren zeitlichen Rauschen übereinstimmen.
Figur 9 zeigt beispielhaft eine Ermittlung eines Entfernungswerts unter Verwendung von zwei Modulationsfrequenzen. Messungen mit zwei Frequenzen werden vorzugsweise eingesetzt um Mehrdeutigkeit bei einer Entfernungsmessung zu vermeiden. In Figur 9 ist beispielhaft ein so genanntes Modulodiagramm gezeigt mit den Frequenzen fi = 7,5 MHz entsprechend einer Wellenlänge λι = 40 m und f2 = 5 MHz entsprechend einer Wellenlänge λ2 = 60 m. Auf der x-Achse sind die Phasenwinkel φι der ersten Frequenz fi und auf der y- Achse die
Phasenwinkel φ2 der zweiten Frequenz f2 aufgetragen. Der mögliche Eindeutigkeitsbereich ergibt sich durch den kleinsten gemeinsamen Vielfachen der Modulationswellenlängen also hier kgV(40, 60) =120 m. Mathematisch ergeben sich ausschließlich Phasenwinkelpaare (φι| φ2) in der dargestellten Kurvenschar. Exemplarisch sind auf den Kurven die mit der jeweiligen Phasenwinkelpaarung korrespondierenden Entfernungswerte aufgetragen.
Die Kurve beginnt mit dem Phasendifferenzpaar (0 | 0) mit der Entfernung 0. Erreicht die Gesamtweglänge des vom Objekt reflektierten Licht die Wellenlänge λι = 40 m der ersten Modulationsfrequenz so erreicht auch der Phasenwert seinen maximalen Wert, nämlich 2π mit dem Phasenwertepaar (2 | 1,33). Mit größer werdender Entfernung springt die Kurve immer an den Punkten, an denen eine der beiden Phasenwerte einen 2π -Wert durchläuft, bis ein Eindeutigkeitsbereich von 120 m erreicht ist. Zur detaillierten Herleitung des
Modulodiagramms sei beispielhaft auf die Anmeldung DE 10 2013 207 647A1 verwiesen.
Eine Entfernung kann beispielsweise dadurch bestimmt werden, indem ein ermitteltes Phasenwertepaar einem Entfernungspunkt der Distanzkurve zugeordnet wird.
Phasenwertepaare liegen nur idealerweise auf der Distanzkurve und weichen typischerweise beispielsweise aufgrund von Rauschen davon ab.
Im in Figur 9 dargestellten Fall ist exemplarisch ein gemessenes Phasenwertepaar (Ziffer 1) mit (1,05 I 0,85) eingezeichnet. Dieses Phasenwertepaar liegt nicht auf der Distanzkurve und ist nun einem Entfernungspunkt auf einer der beiden Kurvenabschnitte der Distanzkurve zuzuordnen. Der Abstand dAB zwischen den Kurvenabschnitten ist bekannt. Für die
Zuordnung ist es daher ausreichend den Abstand dA bzw. dß zu einer der beiden
Kurvenabschnitte zu bestimmen. Der Objektabstand bestimmt sich alsdann aus dem am nächsten liegenden Entfernungspunkt. Im dargestellten Fall kann dem Phasenwertepaar (Ziffer 1) ein Entfernungswert von 23 m zugeordnet werden. Da im dargestellten Diagramm der gesamte Lichtweg zum Objekt hin und zurück aufgetragen ist, ist für die Bestimmung eines Objektabstandes dieser Wert noch zu halbieren.
Figur 10 zeigt eine Ausgestaltung des erfindungsgemäße Vorgehens, bei dem für die
Bestimmung eines Entfernungswerts nur Phasenwertpaare herangezogen werden, die innerhalb eines tolerierten Abstands bzw. tolerierten Rauschabstands dR zur Distanzkurve liegen. Der tolerierte Rauschabstand dR leitet sich beispielsweise aus dem
Distanzrauschmodel mit bzw. Grenzwert GWD ab. Das bereits in Figur 9 gezeigte
Phasenwertepaar (Ziffer 1) liegt innerhalb des tolerierten Abstands dA,i < dR und wird für die Entfernungsmessung als gültiges Phasenwertepaar ausgewertet. Das zweite eingezeichnete Phasenwertepaar (Ziffer 2) liegt außerhalb des tolerierten Abstands dA,2 > dR und wird als ungültiges Phasenwertepaar verworfen.
Dier tolerierte Abstand dR kann applikationsabhängig angepasst werden, bevorzugt ist es jedoch vorgesehen, den Abstand dR anhand des Rauschverhalten des Messsystems festzulegen. Bei Messwerte bzw. Phasenwertepaare, die außerhalb des Messrauschens liegen, kann davon ausgegangen werden, dass die Signale auf denen diese Werte basieren beispielsweise durch eine Mehrwegausbreitung oder ggf. anderen Mechanismen gestört sind.
Bezugszeichen
1 Lichtlaufzeitkamerasystem
10 Beleuchtungsmodul
12 Beleuchtung
20 Empfänger, Lichtlaufzeitkamera
22 Lichtlaufzeitsensor
27 Auswerteeinheit
30 Modulator
35 Phasenschieber, Beleuchtungsphasenschieber
38 Modulationssteuergerät
40 Objekt
400 Auswerteeinheit
φ, A( (tL> laufzeitbedingte Phasenverschiebung
( Var Phasenlage
φο Basisphase
Mo Modulationssignal
pl erste Phase
p2 zweite Phase
Sp 1 Sendesignal mit erster Phase
Sp2 Empfangssignal mit zweiter Phase
Ga, Gb Integrationsknoten
Ua, Ub Spannungen an den Integrationsknoten
AU Spannungsdifferenz
Aq Ladungsdifferenz
d Objektdistanz

Claims

1. Lichtlaufzeitkamerasystem (1), das für die Ermittlung von Entfernungswerten (φ, d) aus einer Phasenverschiebung (A(p(tL>) eines emittierten und empfangenen
modulierten Signals (S l , Sp2) ausgebildet ist,
mit einer Beleuchtung (10) zur Aussendung des modulierten Signals (Spl)
und einem Lichtlaufzeitsensor (20) zum Empfang und Demodulation des
empfangenen Signals (Sp2) mit wenigstens einem Lichtlaufzeitpixel,
wobei das System (1) derart ausgebildet ist, dass für wenigstens zwei unterschiedliche
Modulationsfrequenzen jeweils ein Entfernungswert (φ, d, Di, D2) und/oder
Phasenamplituden (AI , A2) ermittelt werden,
mit einer Auswerteeinheit, die derart ausgestaltet ist, dass ausgehend von einer
Differenz der Entfernungswerte (Dl - D2),
und/oder einem Unterschied der Phasenamplituden (AI , A2)
eine Störung einer Messung erkannt wird.
2. Lichtlaufzeitkamerasystem (1) nach Anspruch 1 , bei dem die Differenz der
Entfernungswerte (Dl - D2) mit einem ganzzahligen Vielfachen (z) eines
frequenzabhängigen Wertes D(f 1 ,f2) verglichen wird, und eine Störung der Messung erkannt wird, wenn die Differenz beider Werte einen vorgegebenen Grenzwert (GW) übersteigt, gemäß der Relation:
3z E TL : \D - D2 - z D( , 2) | < GWD .
3. Lichtlaufzeitkamerasystem (1) nach Anspruch 2, bei dem der Grenzwert in
Abhängigkeit eines Distanzrauschmodells festgelegt wird (GW = Tresholdo(NoiseD))
4. Lichtlaufzeitkamera (1) nach einem der vorhergehenden Ansprüche, bei dem eine Störung der Messung erkannt wird, wenn eine Auswertung der Phasenamplituden (AI , A2) einen vorgegeben Grenzwert (GW) überschreitet.
5. Lichtlaufzeitkamerasystem (1) nach Anspruch 4, bei dem der Grenzwert in
Abhängigkeit eines Amplitudenrauschmodells festgelegt wird (GW =
Tresho kU(NoiseA)) .
PCT/EP2017/054381 2016-02-24 2017-02-24 Lichtlaufzeitkamerasystem WO2017144690A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016202901.0 2016-02-24
DE102016202901 2016-02-24

Publications (1)

Publication Number Publication Date
WO2017144690A1 true WO2017144690A1 (de) 2017-08-31

Family

ID=58162604

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/054381 WO2017144690A1 (de) 2016-02-24 2017-02-24 Lichtlaufzeitkamerasystem

Country Status (2)

Country Link
DE (2) DE102017203091A1 (de)
WO (1) WO2017144690A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109425865B (zh) * 2017-08-22 2020-09-08 深圳市道通智能航空技术有限公司 一种无人机测距方法、装置及无人机
US11467270B2 (en) * 2019-03-27 2022-10-11 Asmpt Singapore Pte. Ltd. Apparatus and method for calibrating or testing an imaging device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE102010003411A1 (de) * 2010-03-29 2011-09-29 Ifm Electronic Gmbh Lichtlaufzeit-Kamera
US20120033045A1 (en) * 2010-07-23 2012-02-09 Mesa Imaging Ag Multi-Path Compensation Using Multiple Modulation Frequencies in Time of Flight Sensor
DE102013207651A1 (de) * 2012-05-21 2013-11-21 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem
DE102013207647A1 (de) 2012-05-21 2013-11-21 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem
US20140368613A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Depth map correction using lookup tables

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE102010003411A1 (de) * 2010-03-29 2011-09-29 Ifm Electronic Gmbh Lichtlaufzeit-Kamera
US20120033045A1 (en) * 2010-07-23 2012-02-09 Mesa Imaging Ag Multi-Path Compensation Using Multiple Modulation Frequencies in Time of Flight Sensor
DE102013207651A1 (de) * 2012-05-21 2013-11-21 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem
DE102013207647A1 (de) 2012-05-21 2013-11-21 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem
US20140368613A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Depth map correction using lookup tables

Also Published As

Publication number Publication date
DE102017203090A1 (de) 2017-08-24
DE102017203091A1 (de) 2017-08-24

Similar Documents

Publication Publication Date Title
DE102013207651A1 (de) Lichtlaufzeitkamerasystem
DE102013207653B4 (de) Lichtlaufzeitkamerasystem
DE102013207649A1 (de) Lichtlaufzeitkamerasystem
DE102016201599A1 (de) Lichtlaufzeitkamerasystem
WO2017144690A1 (de) Lichtlaufzeitkamerasystem
DE102016213217A1 (de) Lichtlaufzeitkamerasystem
DE102013207654B4 (de) Lichtlaufzeitkamerasystem
DE102014207163A1 (de) Lichtlaufzeitkamerasystem
DE102013207647A1 (de) Lichtlaufzeitkamerasystem
DE102015225192A1 (de) Lichtlaufzeitmesssystem mit Überreichweitenerkennung
DE102013207648B4 (de) Lichtlaufzeitkamerasystem
DE102014205585B4 (de) Verfahren zum Betreiben einer Lichtlaufzeitkamera und Lichtlaufzeitkamerasystem
DE102013207650B4 (de) Lichtlaufzeitkamerasystem
DE102016219170A1 (de) Lichtlaufzeitkamerasystem
DE102020123537B4 (de) Lichtlaufzeitkamerasystem
DE102013207652B4 (de) Lichtlaufzeitkamerasystem
DE102014204423A1 (de) Lichtlaufzeitkamerasystem
DE102013214677B3 (de) Lichtlaufzeitkamerasystem
DE102016222334B4 (de) Verfahren zur Ermittlung von Systemparametern eines Lichtlaufzeitkamerasystems
DE102019124142A1 (de) Lichtlaufzeitkamerasystem
DE102020123541A1 (de) Entfernungsmesssystem
DE102019124138A1 (de) Lichtlaufzeit-Entfernungsmesssystem
DE102019124144A1 (de) Entfernungsmesssystem
DE102019110306A1 (de) Verfahren zum Betreiben eines Lichtlaufzeitkamerasystems
DE102013216434B3 (de) Lichtlaufzeitkamerasystem

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17707302

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17707302

Country of ref document: EP

Kind code of ref document: A1