DE102020123652A1 - Verfahren und Vorrichtungen zum Bestimmen von Entfernungsinformation - Google Patents

Verfahren und Vorrichtungen zum Bestimmen von Entfernungsinformation Download PDF

Info

Publication number
DE102020123652A1
DE102020123652A1 DE102020123652.2A DE102020123652A DE102020123652A1 DE 102020123652 A1 DE102020123652 A1 DE 102020123652A1 DE 102020123652 A DE102020123652 A DE 102020123652A DE 102020123652 A1 DE102020123652 A1 DE 102020123652A1
Authority
DE
Germany
Prior art keywords
frequency
light signals
value
time
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020123652.2A
Other languages
English (en)
Inventor
Johannes Bostelmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Basler AG
Original Assignee
Basler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Basler AG filed Critical Basler AG
Priority to DE102020123652.2A priority Critical patent/DE102020123652A1/de
Priority to US17/469,949 priority patent/US20220075071A1/en
Publication of DE102020123652A1 publication Critical patent/DE102020123652A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak

Abstract

Die Erfindung betrifft ein Verfahren zum Bestimmen mindestens einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden zwischen von einer Lichtquelle einer Lichtlaufzeitkamera emittierten Lichtsignalen und von einem Bildsensor der Lichtlaufzeitkamera durch Streuung oder Reflektion der emittierten Lichtsignale an mindestens einem Objekt empfangenen Lichtsignalen mit den Merkmalen des Anspruchs 1 gelöst, insbesondere dadurch, dass das Verfahren umfasst: Steuern der Lichtquelle zum Aussenden einer Mehrzahl von Lichtsignalen, wobei jedes Lichtsignal einen zeitlichen Intensitätsverlauf basierend auf einer jeweiligen Frequenz aufweist, wobei mindestens eine erste Frequenz und eine von der ersten Frequenz verschiedene zweite Frequenz verwendet werden; Ermitteln mindestens eines ersten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der ersten Frequenz; Ermitteln mindestens eines zweiten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der zweiten Frequenz; und Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds basierend auf den ermittelten jeweiligen ersten und zweiten Werten unter Berücksichtigung von mindestens zwei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor; wobei die Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds ferner basiert auf der Ermittlung eines Winkels, der einer von dem ersten Wert und dem zweiten Wert abhängigen komplexen Zahl in Polardarstellung entspricht.

Description

  • Die Erfindung betrifft ein Verfahren aus der Nachrichtentechnik, insbesondere der Bildverarbeitung zur Abstandsbestimmung, beispielsweise unter Verwendung von Laufzeitkameras (Time-of-Flight-Kamera; TOF-Kamera). Gemäß verschiedenen Ausführungsformen wird ein Verfahren zum Bestimmen von Entfernungsinformation, insbesondere zum Bestimmen mindestens einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden, bereitgestellt.
  • Die Erfindung betrifft auch ein Kamerasystem und ein Computerprogramm (welches beispielsweise als Computerprogrammprodukt ausgeführt sein kann).
  • Die Bestimmung von Abständen oder Entfernungen ist wesentlicher Bestandteil von verschiedenen Anwendungen, beispielsweise bei autonomen Fahrzeugen oder bei der automatischen Qualitätskontrolle. Beispielsweise können Radar- oder Lidar-Sensoren zur Abstandsbestimmung eingesetzt werden. Ein anderer Ansatz besteht in der Verwendung von TOF-Kameras, bei denen basierend auf der Lichtlaufzeit von der Kamera zu einem Objekt und zurück der Abstand zwischen der Kamera und dem Objekt ermittelt werden kann. Dabei wird insbesondere die Phasen- oder Amplitudeninformation von emittierten Lichtsignalen nach Reflektion (in anderen Worten: Reflexion) ausgewertet. Ein Verfahren und eine Vorrichtung für eine solche Auswertung sind aus DE 197 04 496 C2 bekannt.
  • Bei der Bestimmung von Abständen basierend auf Laufzeitunterschieden ergeben sich allerdings Probleme durch Reflektion von ausgesendeten Signalen an verschiedenen Oberflächen. Es wird in diesem sogenannten Multipfadfall dann nämlich nicht mehr genau eine Reflektion des ausgesendeten Signals empfangen, sondern eine Überlagerung von mehreren Reflektionen. Dadurch wird die Genauigkeit der Bestimmung des Abstands mit gebräuchlichen Verfahren verschlechtert. Es gibt Ansätze zur Kompensation der Effekte des Multipfadfalls. Ein möglicher Ansatz ist beispielsweise in US 9753128 B1 beschrieben, wobei allerdings keine geschlossene Lösung bereitgestellt wird, sondern ein iteratives Näherungsverfahren.
  • Es ist daher Aufgabe der Erfindung, eine genaue und effiziente Abstandsbestimmung auch dann zu ermöglichen, wenn ein ausgesendetes Signal an verschiedenen Oberflächen reflektiert wird. Dies soll bevorzugt in geschlossener Form erfolgen, was garantiert, dass eine Lösung zuverlässig und in vorab bestimmter Zeit ermittelt werden kann.
  • Diese Aufgabe wird durch ein Verfahren zum Bestimmen mindestens einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden zwischen von einer Lichtquelle einer Lichtlaufzeitkamera emittierten Lichtsignalen und von einem Bildsensor der Lichtlaufzeitkamera durch Streuung oder Reflektion der emittierten Lichtsignale an mindestens einem Objekt empfangenen Lichtsignalen mit den Merkmalen des Anspruchs 1 gelöst, insbesondere dadurch, dass das Verfahren umfasst: Steuern der Lichtquelle zum Aussenden einer Mehrzahl von Lichtsignalen, wobei jedes Lichtsignal einen zeitlichen Intensitätsverlauf basierend auf einer jeweiligen Frequenz aufweist, wobei mindestens eine erste Frequenz und eine von der ersten Frequenz verschiedene zweite Frequenz verwendet werden; Ermitteln mindestens eines ersten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der ersten Frequenz; Ermitteln mindestens eines zweiten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der zweiten Frequenz; und Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds basierend auf den ermittelten jeweiligen ersten und zweiten Werten unter Berücksichtigung von mindestens zwei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor; wobei die Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds ferner basiert auf der Ermittlung eines Winkels, der einer von dem ersten Wert und dem zweiten Wert abhängigen komplexen Zahl in Polardarstellung entspricht.
  • In einer Ausgestaltung des Verfahrens wird der Winkel ermittelt basierend auf einer Berechnung eines Arcustangens basierend auf dem ersten Wert und dem zweiten Wert.
  • Gemäß einer Ausführungsform umfasst der mindestens eine erste Wert zwei erste Komponenten-Werte, die als eine erste komplexe Zahl darstellbar sind, wobei der mindesteins eine zweite Wert zwei zweite Komponenten-Werte, die als eine zweite komplexe Zahl darstellbar sind, umfasst, und wobei der Winkel ermittelt wird basierend auf einem Wert bzw. auf Werten, der bzw. die einer Differenz zwischen der zweiten komplexen Zahl und dem Quadrat der ersten komplexen Zahl entspricht bzw. entsprechen.
  • Die Aufgabe der Erfindung wird auch durch ein weiteres Verfahren gelöst, insbesondere ein Verfahren zum Bestimmen mindestens einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden zwischen von einer Lichtquelle einer Lichtlaufzeitkamera emittierten Lichtsignalen und von einem Bildsensor der Lichtlaufzeitkamera durch Streuung oder Reflektion der emittierten Lichtsignale an mindestens einem Objekt empfangenen Lichtsignalen, wobei das Verfahren umfasst: Steuern der Lichtquelle zum Aussenden einer Mehrzahl von Lichtsignalen, wobei jedes Lichtsignal einen zeitlichen Intensitätsverlauf basierend auf einer jeweiligen Frequenz aufweist, wobei mindestens eine erste Frequenz und eine von der ersten Frequenz verschiedene zweite Frequenz verwendet werden; Ermitteln mindestens eines ersten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der ersten Frequenz; Ermitteln mindestens eines zweiten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der zweiten Frequenz; und Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds basierend auf den ermittelten jeweiligen ersten und zweiten Werten unter Berücksichtigung von mindestens zwei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor; wobei die Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds ausschließlich auf analytischen Berechnungen und/oder exakten Berechnungen und/oder nicht-iterativen Berechnungen und/oder nicht-näherungsweisen Berechnungen basiert. Neben analytischen Berechnungen, exakten Berechnungen, nicht-iterativen Berechnungen und/oder nicht-näherungsweisen Berechnungen werden also keine weiteren Berechnungen (insbesondere keine näherungsweisen oder iterativen Berechnungen) verwendet.
  • Die Aufgabe der Erfindung wird auch durch ein weiteres Verfahren gelöst, insbesondere ein Verfahren zum Bestimmen mindestens einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden zwischen von einer Lichtquelle einer Lichtlaufzeitkamera emittierten Lichtsignalen und von einem Bildsensor der Lichtlaufzeitkamera durch Streuung oder Reflektion der emittierten Lichtsignale an mindestens einem Objekt empfangenen Lichtsignalen, wobei das Verfahren umfasst: Steuern der Lichtquelle zum Aussenden einer Mehrzahl von Lichtsignalen, wobei jedes Lichtsignal einen zeitlichen Intensitätsverlauf basierend auf einer jeweiligen Frequenz aufweist, wobei mindestens eine erste Frequenz und eine von der ersten Frequenz verschiedene zweite Frequenz verwendet werden; Ermitteln mindestens eines ersten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der ersten Frequenz; Ermitteln mindestens eines zweiten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der zweiten Frequenz; und Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds basierend auf den ermittelten jeweiligen ersten und zweiten Werten unter Berücksichtigung von mindestens zwei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor; wobei die Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds ferner basiert auf einem Normieren der jeweiligen Signale basierend auf einem skalaren Gesamtwert, der auf dem ersten Wert und dem zweiten Wert basiert.
  • Gemäß einer Ausführungsform basiert das Normieren auf einer Bestimmung von Nullstellen eines Polynoms dritten oder höheren Grades.
  • Gemäß einer Ausführungsform umfasst der mindestens eine erste Wert zwei erste Komponenten-Werte, die als eine erste komplexe Zahl darstellbar sind, und der mindestens eine zweite Wert umfasst zwei zweite Komponenten-Werte, die als eine zweite komplexe Zahl darstellbar sind, , wobei ein Normierungsfaktor der Normierung ermittelt wird basierend auf einem Wert bzw. auf Werten, der bzw. die einer Differenz zwischen der zweiten komplexen Zahl und dem Quadrat der ersten komplexen Zahl entspricht bzw. entsprechen.
  • Gemäß einer Ausführungsform entspricht der erste Wert einer ersten Intensität oder einer ersten Intensitätsdifferenz, und der zweite Wert entspricht einer zweiten Intensität oder einer zweiten Intensitätsdifferenz.
  • Gemäß einer Ausführungsform umfasst der mindestens eine erste Wert zwei erste Intensitäten oder zwei erste Intensitätsdifferenzen, die zumindest im Wesentlichen um 90° phasenverschoben zueinander ermittelt werden, und der mindestens eine zweite Wert umfasst zwei zweite Intensitäten oder zwei zweite Intensitätsdifferenzen, die zumindest im Wesentlichen um 90° phasenverschoben zueinander ermittelt werden.
  • Gemäß einer Weiterbildung ist die die zweite Frequenz (zumindest im Wesentlichen) doppelt so groß ist wie die erste Frequenz.
  • Die Aufgabe der Erfindung wird auch durch ein weiteres Verfahren gelöst, insbesondere ein Verfahren zum Bestimmen einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden zwischen von einer Lichtquelle einer Lichtlaufzeitkamera emittierten Lichtsignalen und von einem Bildsensor der Lichtlaufzeitkamera durch Streuung oder Reflektion der emittierten Lichtsignale an mindestens einem Objekt empfangenen Lichtsignalen, wobei das Verfahren umfasst: Ermittlung von mindestens zwei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor unter Verwendung eines der oben beschriebenen Verfahren; Ermittlung von Entfernungsinformation basierend auf mindestens drei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor mittels eines iterativen numerischen Verfahrens, wobei für das iterative numerische Verfahren mindestens drei Startwerte für die mindestens drei Pfade basierend auf den ermittelten mindestens zwei Pfaden ermittelt werden.
  • Die Aufgabe der Erfindung wird auch durch ein Kamerasystem gelöst, insbesondere ein Kamerasystem umfassend eine Lichtlaufzeitkamera mit einer Lichtquelle, einem Bildsensor und einer Synchronisationseinrichtung und eine Recheneinheit, zur Ausführung eines der oben beschriebenen Verfahren.
  • Die Aufgabe der Erfindung wird auch durch eine Vorrichtung gelöst, insbesondere eine Vorrichtung umfassend eine Synchronisationseinrichtung und eine Recheneinheit, die ausgestaltet ist zur Durchführung eines der oben beschriebenen Verfahren.
  • Die Aufgabe der Erfindung wird auch durch ein Computerprogramm gelöst, welches insbesondere als Computerprogrammprodukt bereitgestellt werden kann, wobei das Computerprogramm zum Speichern auf einem Datenträger geeignet ist und eingerichtet ist zum Veranlassen einer Computervorrichtung zum Ausführen eines der oben beschriebenen Verfahren, wenn das Computerprogramm auf der Computervorrichtung ausgeführt wird.
  • Die hierin beschriebenen Aspekte der Erfindung, also die Verfahren, das Kamerasystem, die Vorrichtung und das Computerprogramm lassen sich selbstverständlich und vorteilhaft im Sinne aller zu jeweils anderen Aspekten beschriebenen Ausführungsformen weiterbilden.
  • Die Erfindung wird nachfolgend lediglich beispielhaft anhand der schematischen Zeichnung erläutert.
    • 1A zeigt eine Illustration einer Signalansteuerung für drei Fotodioden mit Rechteckpulsen;
    • 1B zeigt eine Illustration der von den jeweiligen Fotodioden empfangenen Signale;
    • 1C zeigt ein Diagramm mit dem normierten Signalverlauf über die Laufzeit des Lichtes;
    • 1D zeigt eine Illustration der Trajektorie der Ansteuerung gemäß 1A;
    • 2 zeigt eine Illustration eines Aufbaus, der Multipfad-Effekte erzeugen kann;
    • 3 zeigt eine Illustration einer sich schneidenden Konvexkombination;
    • 4 zeigt eine Illustration der Anzahl von korrekten Rekonstruktionen; und
    • 5 zeigt eine Illustration eines arithmetischen Mittels eines absoluten Fehlers.
  • Time-of-Flight-Kameras (ToF-Kameras), welche auch als Lichtlaufzeitkameras bezeichnet werden können, senden periodisch modulierte Lichtpulse (in anderen Worten: Lichtsignale) aus. Diese werden von Objekten reflektiert. Die endliche Lichtgeschwindigkeit bedingt eine Phasenverschiebung zwischen dem ausgesandten (in anderen Worten: emittierten) und dem reflektierten Licht. Diese Phasenverschiebung entspricht der Laufzeit des Lichtes und wird von der Kamera gemessen. Die Entfernung d zwischen Kamera und Objekt ist proportional zur Laufzeit des Lichts δ. Daher lässt sich aus der Phasenverschiebung für jeden Pixel diese Entfernung d bestimmen und daraus ein Entfernungsbild formen: d = c 2 δ
    Figure DE102020123652A1_0001
  • Hierbei beschreibt c die Lichtgeschwindigkeit im umgebenden Medium, beispielsweise in Luft. Das Licht legt die Strecke hin und retour zweimal zurück. Dadurch begründet sich die 2 im Nenner von Formel (1.1).
  • Die Periodenlänge wird hier durch ein Intervall I beschrieben. Innerhalb dieses Intervalls ist die Bestimmung der Entfernung eindeutig möglich. Falls die Periodenlänge die Länge des Intervalls I überschreitet, kann eine Mehrdeutigkeit auftreten, die als Tiefen-Aliasing bezeichnet wird.
  • Um eine typische Tiefengenauigkeit im Bereich von Zentimetern zu erhalten, ergibt sich mit Gleichung (1.1) eine erforderliche zeitliche Auflösung der Messung von ungefähr 66,71 ps. Somit ist es besonders wichtig, die Laufzeit des Lichtes sehr genau zu bestimmen. Dies kann durch den im Folgenden beschriebenen Sensoraufbau erreicht werden.
  • Ein ToF-Bildsensor besitzt eine matrixförmige Anordnung von Pixeln. Jedes Pixel ist mit mindestens einem elektronischen Verschluss ausgestattet, der auch als Shutter bezeichnet wird. Ein Shutter wird jeweils durch ein Steuersignal geöffnet bzw. geschlossen. Ist ein Shutter geöffnet, sammelt das Pixel das einfallende Licht und erzeugt daraus ein diesem Shutter zugeordnetes, elektrisches Signal. Bei ToF-Bildsensoren kann ein Shutter zumeist mehrfach hintereinander geöffnet bzw. geschlossen werden, wobei das Sammeln des Lichtes jeweils fortgesetzt bzw. unterbrochen wird. Die i-ten Shutter einer Mehrzahl von Pixeln werden jeweils von einem gemeinsamen i-ten Steuersignal geschaltet. Zum leichteren Verständnis wird nachfolgend ein Pixel exemplarisch betrachtet.
  • Das gemessene Signal an dem i-ten Shutter des Pixels Si(δ) wird in Abhängigkeit von der Phasenverschiebung im mathematischen Modell folgendermaßen beschrieben. Der reflektierte Lichtimpuls wird als die Funktion Iref modelliert, welche die Intensität des reflektierten Lichtes in Abhängigkeit von der Zeit angibt. Das Öffnen und Schließen der Shutter wird durch die Shutterfunktion p(t): I → [0,1]n beschrieben. Eine Eins steht für einen geöffneten Shutter und eine Null für einen geschlossenen Shutter. Dazwischen liegende Werte können einen teilweise geöffneten Shutter modellieren. Die Kreuzkorrelation wird aus den beiden Funktionen Iref und der i-ten Komponente der Shutterfunktion pi gebildet und für die Phasenverschiebung δ ausgewertet: S i ( δ ) = l r e f ( t δ ) p i ( t ) d t = l r e f ( t ) p i ( t + δ ) d t = : ( l r e f p i ) ( δ )
    Figure DE102020123652A1_0002
  • Der Signalvektor S(δ) ∈ ℝn wird komponentenweise aus den einzelnen Kreuzkorrelationen gebildet: S ( δ ) : = ( ( l r e f p 1 ) ( δ ) ( l r e f p 2 ) ( δ ) ( l r e f p n ) ( δ ) ) n .
    Figure DE102020123652A1_0003
  • Der reflektierte Lichtimpuls Iref hängt dabei über einen Reflektionskoeffizienten aref >0 und dem Hintergrundlicht lh ≥ 0 von dem emittierten Lichtimpuls le ab: l r e f ( t ) = a r e f l e ( t ) + l h
    Figure DE102020123652A1_0004
  • Im mathematischen Modell wird angenommen, dass bei der kurzen Zeitdauer der Messung das Hintergrundlicht lh konstant ist (vgl. Gleichung 1.1). In diesem Fall wird integrierend ein zusätzlicher additiver Term gemessen. Dieser hängt von dem Integral der jeweiligen Shutterfunktion und der konstanten Intensität des Hintergrundlichtes ab, aber nicht von der Phasenverschiebung δ. Unter der Bedingung, dass die Shutterfunktionen pi die gleiche „Masse“ haben, also die Gleichung (1.5) erfüllen, p j ( t ) d t = p k ( t ) d t = : κ j , k [ 1, n ]
    Figure DE102020123652A1_0005
    gilt mit der Linearität der Kreuzkorrelation: S ( a r e f , δ , l h ) : = a r e f ( ( l e p 1 ) ( δ ) ( l e p 2 ) ( δ ) ( l e p n ) ( δ ) ) + l h κ ( 1 1 1 ) .
    Figure DE102020123652A1_0006
  • Aus dem gemessenen Signal soll die Laufzeit des Lichtes und damit die Entfernung rekonstruiert werden. Um eine eindeutige Entfernungsinformation zu erhalten, muss eine : Bild(S) → I existieren mit D - s(aref, δ, lh) = δ. Mit Gleichung (1.6) folgt, dass D invariant gegenüber Skalierung und Verschiebung entlang des Einsvektors 1v sein muss. Eine Verschiebung des vektorwertigen Signals entlang des Einsvektors nimmt somit keinen Einfluss auf die rekonstruierte Entfernung. Das bildet die erforderliche Invarianz gegenüber Hintergrundlicht im Modell ab. Außerdem ist die rekonstruierte Entfernung unabhängig von einer Skalierung des Signalvektors. Damit wird die Invarianz bezüglich unterschiedlich reflexiven Oberflächen beschrieben.
  • Gleichermaßen gilt für ein eindeutig rekonstruierbares Signal: S ( 1, δ , 0 ) a r e f S ( 1, δ ' , 0 ) + l h κ 1 V a r e f , l h , δ δ ' .
    Figure DE102020123652A1_0007
  • Daher kann Bild(S(1, δ, 0)) durch eine Projektion PU injektiv auf U := (Span(1v) ∩ ∂Bn) abgebildet werden, wobei Span(1v) das orthogonale Komplement vom Spann des Einsvektors und ∂Bn den Rand der n-dimensionalen Einheitskugel bezeichnet. Bei der Menge Span(1v) handelt es sich um einen Unterraum der Dimension n-1 und U ist somit topologisch äquivalent zu ∂Bn-1. Damit ist auch D eindeutig über die Abbildung D|U ◦ PU definiert. Die Kurve, welche die Abbildung δ → S(1, δ, 0) definiert, wird als Trajektorie von S bezeichnet. Diese muss schnittfrei sein, um eine eindeutige Entfernungsinformation zu ermöglichen.
  • Im Folgenden werden Eigenschaften der Trajektorie beschrieben, die im mathematischen Modell gewisse erwünschte Verhaltensweisen der 3D-Kamera widerspiegeln.
  • 1A zeigt eine Illustration 100 einer Signalansteuerung für drei Fotodioden mit Rechteckpulsen für die Shutter P0, P1, P2 und die LED. Das emittierte Signal 102 wird als reflektiertes Signal 104 empfangen und an den drei Fotodioden gemäß den Shutterfunktionen P0 (106), P1 (108) und P2 (110) empfangen.
  • 1B zeigt eine Illustration 120 der von den jeweiligen Fotodioden empfangenen Signale. Entsprechend den in 1A als schraffierte Flächen dargestellten Lichtmengen, die bei offenem Shutter basierend auf dem reflektierten Signal empfangen werden, ist das Signal S0 gleich 0, und das Signal S1 größer als das Signal S2.
  • 1C zeigt ein Diagramm 140 mit dem normierten Signalverlauf S(δ) über die Laufzeit des Lichtes. Eine Komponente der Signalfunktion Si ergibt sich aus der Kreuzkorrelation des um die Laufzeit δ verschobenen LED-Signals (also des reflektierten Signals) mit der i-ten Komponente der Shutterfunktion Si(δ) = (LED * Pi)(δ) mit einem zusätzlichen Normierungsfaktor.
  • 1D zeigt eine Illustration 160 der Trajektorie der Ansteuerung gemäß 1A. Der Signalverlauf wird als Kurve in Abhängigkeit von der Phasenverschiebung δ in den hier 3-dimensionalen Signalraum abgebildet. Das Erzeugen des gemessenen Signals durch die Sensoransteuerung in Abhängigkeit von der Laufzeit des Lichtes wird als Signalcodierung bezeichnet und die Bestimmung der Laufzeit aus dem gemessenen Signal als Signaldecodierung oder Rekonstruktion.
  • In realen Anwendungen einer ToF-Kamera wird das emittierte Licht häufig mehrfach reflektiert. Es entsteht eine Überlagerung von dem Lichtimpuls auf dem direkten Pfad und einer Summe von Impulsen auf indirekten Pfaden. Daraus bildet sich das reflektierte Licht, welches der Sensor aufnimmt. Auf diese Weise entstehen Fehler bei der Tiefenbestimmung aus dem gemessenen Signal. Bei einer üblichen Decodierung des Signals wirken Objekte so weiter entfernt und konvexe Ecken stumpfer.
  • 2 zeigt eine Illustration 200 eines Aufbaus, der Multipfad-Effekte erzeugen kann, da neben einem direkten Pfad 208 zwischen einer Kamera 202 und einem ersten Objekt 204 mehrere indirekte Pfade 210 zwischen der Kamera 202 und dem ersten Objekt 204 über ein zweites Objekt 206 bestehen.
  • Im mathematischen Modell wird dieses Verhalten folgendermaßen abgebildet. Mit der Linearität der Kreuzkorrelation ergibt sich für das Signal an der i-ten Diode, ( ( l r e f + l r e f ' ) p i ) ( δ ) = ( l r e f p i ) ( δ ) = ( l r e f ' p i ) ( δ )
    Figure DE102020123652A1_0008
    und gleichermaßen ( l r e f ' p i ) ( δ ) = l r e f ' ( t ) p i ( t + δ ) d t = ( a r e f ' l e ( t δ m p ) ) p i ( t + δ ) d t = ( a r e f ' l e ( t ) ) p i ( t + δ + δ m p ) d t = a r e f ' ( l e p i ) ( δ + δ m p ) .
    Figure DE102020123652A1_0009
  • Die Variable δmp steht hierbei für die längere Zeitdauer, die das Licht benötigt, wenn es nicht über den direkten Weg wieder zum Sensor gelangt. Wenn Multipfad-Effekte auftreten, lässt sich der resultierende Signalvektor M als Summe von verschiedenen Pfaden mit den entsprechenden Koeffizienten der Reflexivität schreiben.
  • Die Reihenfolge der einzelnen Summanden spielt dabei keine Rolle und ist auch für die Rekonstruktion unwichtig, deshalb wird im Folgenden angenommen, dass die einzelnen Phasenverschiebungen δi der Größe nach geordnet werden.
  • Im Folgenden werden Eigenschaften der Trajektorie im Signalraum herausgestellt, die eine geeignete Sensoransteuerung ermöglichen, die eine Kompensation von Multipfad-Fehlern ermöglicht bzw. die Tiefenschärfe des 3d-Bildes erhöht. Erfindungsgemäß wird die Klasse der harmonischen Signalcodierungen für den Multipfad-Fall bereitgestellt.
  • Gemäß verschiedenen Ausführungsformen wird die Messung unabhängig von dem Einfluss des Hintergrundlichtes und der Reflexivität gemacht. Die hier beschriebenen Methoden gelten unabhängig von dem Auftreten von Multipfad-Effekten. Der Einfluss des Hintergrundlichtes v auf das Signal kann herausgerechnet werden, indem eine zweite Messung mit inaktiver Beleuchtung erfolgt. Bei der zweiten Messung wird damit derjenige additive Term des Signals, welchen das Hintergrundlicht erzeugt, bestimmt. Sofern keine Sättigung des Sensors auftritt, ist die Differenz der Ergebnisse aus beiden Messungen dann frei vom Einfluss des Hintergrundlichtes. Außerdem können auch zwei Messungen hintereinander mit unterschiedlicher Intensität inti der Beleuchtung ausgeführt werden. Dann ergibt sich für die beiden Signale: S 1 = i n t 1 S + v , S 2 = i n t 2 S + v S = S 2 S 1 i n t 2 i n t 1
    Figure DE102020123652A1_0010
  • Das resultierende Signal ist dann ebenfalls unabhängig vom Hintergrundlicht. Daher kann von nun an der Einfluss des Hintergrundlichtes grundsätzlich vernachlässigt werden. Außerdem kann die Reflexivität des Lichtpfades, bzw. die Summe der Reflexivitäten im Multipfad-Fall, im Voraus bestimmt werden. Dazu muss eine j-te Komponente der vektorwertigen Signalfunktion konstant sein. Dann gilt für diese Komponente der Signalfunktion: M j ( a , δ ) = i = 1 n a i S ( δ i ) j = r i = 1 n a i mit r = S ( δ ) j .
    Figure DE102020123652A1_0011
  • So lässt sich die Summe der Reflexivitäten immer bestimmen. Eine konstante Komponente in der Signalfunktion lässt sich erzeugen, indem eine Shutterfunktion die Periode über konstant eins ist. Damit wird einfach die Intensität des reflektierten Lichtes integrierend gemessen, ohne dass die Phasenverschiebung δ Auswirkungen auf das Ergebnis nimmt. Die gebildete Kreuzkorrelation nimmt in diesem Fall konstant den Wert des Integrals des reflektierten Lichtes an. Da die Kreuzkorrelation eine lineare Verknüpfung ist, lässt sich eine konstante Komponente der Signalfunktion auch als die Summe von mehreren Komponenten der Signalfunktion bilden, deren Shutterfunktionen in Summe die konstante Einsfunktion ergeben. Wird die Summe der Reflexivitäten i = 1 n a i
    Figure DE102020123652A1_0012
    nun auf diese Weise bestimmt, kann das Signal M = i = 1 n a i S ( δ i )
    Figure DE102020123652A1_0013
    normalisiert werden, d.h.: M n o r m = M i = 1 n a i = i = 1 n a i i = 1 n a i S ( δ i ) .
    Figure DE102020123652A1_0014
  • Damit ergibt die Summe der Reflektionskoeffizienten für ein normalisiertes Signal 1. Geometrisch betrachtet kann das normalisierte Signal bei der Überlagerung von n verschiedenen Lichtpfaden also als Konvexkombination von n Punkten auf der Trajektorie im mehrdimensionalen Signalraum beschrieben werden.
  • Im Folgenden wird der Einfluss des Multipfadeffektes auf das Signal beschrieben. Bei der Tiefenmessung tritt eine Überlagerung von verschiedenen Lichtpfaden auf.
  • Damit ergibt sich für das normalisierte Signal: M ( a , δ ) = i = 1 n a i S ( δ i ) ,
    Figure DE102020123652A1_0015
    wobei nun zusätzlich gilt i = 1 n a i = 1.
    Figure DE102020123652A1_0016
    Also ist das normalisierte Signal eine Konvexkombination von n Punkten auf der Signalkurve und liegt damit in deren konvexen Hülle. Um eine eindeutige Rekonstruktion des normalisierten Signals zu ermöglichen, müssen die nach Länge geordneten Phasenverschiebungen aus der entsprechenden Signalfunktion eindeutig rekonstruierbar sein, woraus folgt: δ δ ' M ( a , δ ) M ( b , δ ' ) = i = 1 n a i S ( δ i ) i = 1 n b j S ( δ i ' ) a i , b i > 0 : j = 1 n a j = j = 1 n b j = 1
    Figure DE102020123652A1_0017
  • Die Mengen der Konvexkombinationen von jeweils n Punkten auf der Signalkurve müssen folglich für paarweise unterschiedliche Punkte disjunkt sein. Wenn diese Kombinationen sich schneiden, liegen 2n paarweise verschiedene Punkte auf der Signalkurve in einem affinen Unterraum der Dimension 2n - 2. Das bietet also einen Hinweis auf eine möglicherweise nicht eindeutig rekonstruierbare Signalcodierung. Die Gleichung (2.4) ist für bijektive linear-affine Abbildungen der Signalfunktion invariant.
  • Sei L : ℝn → ℝn, L(x) = Ax + v, wobei A ∈ Rn×n : A regulär und v ∈ ℝn. Daraus folgt: i = 1 n a i L ( S ( δ i ) ) j = 1 n b j ( S ( δ j ' ) ) i = 1 n a i ( A S ( δ i ) + v ) j = 1 n b j ( A S ( δ j ' ) + v ) A ( i = 1 n a i S ( δ i ) ) + v A ( j = 1 n b j S ( δ j ' ) ) + v A ( i = 1 n a i S ( δ i ) ) A ( j = 1 n b j S ( δ j ' ) ) i = 1 n a i S ( δ i ) j = 1 n b j S ( δ j ' )
    Figure DE102020123652A1_0018
  • Damit hängt die Rekonstruierbarkeit im Multipfadfall einer Signalkurve, die eine gewisse Sensoransteuerung repräsentiert, nicht von bijektiven affin-linearen Transformationen der Trajektorie ab. Diese Freiheitsgrade können genutzt werden, um weitere gewünschte Eigenschaften oder eine gute technische Realisierung zu erzielen.
  • Im Folgenden wird die Bildstruktur des normalisierten Multipfadeffekts im Signalraum beschrieben. Hier wird zunächst der einfachste Multipfadfall betrachtet, der durch die Überlagerung von genau zwei verschiedenen Lichtpfaden entsteht. Unter diesen Umständen setzt sich der Multipfadvektor als M ( δ 1 , δ 2 , a ) = ( 1 a ) S ( δ 1 ) + a S ( δ 2 )
    Figure DE102020123652A1_0019
    zusammen, wobei gilt: 0 < a < 1.
  • Gemäß verschiedenen Ausführungsformen wird die Klasse der harmonischen Signalcodierung bereitgestellt. Vereinfachend kann vorausgesetzt werden, dass die Signale normalisiert und frei von Hintergrundlicht sind. Dieser Zustand lässt sich gegebenenfalls auch durch Differenzbildung von mehreren Signalen herstellen.
  • Um den Fehler, der durch den Multipfad-Effekt entsteht, zu kompensieren, wird gemäß verschiedenen Ausführungsformen ein Multifrequenzverfahren eingesetzt. Die gemessenen Signale des Sensors können durch einen Signalvektor mathematisch modelliert werden. Der Signalvektor S setzt sich in diesem Fall aus Sinusfunktionen mit möglicherweise verschiedenen Frequenzen fi (beispielsweise einer ersten Frequenz f1 und einer zweiten Frequenz f2) und Phasenverschiebungen Φi zusammen: S ( δ ) = ( s i n ( ƒ 1 δ + ϕ 1 ) s i n ( ƒ 2 δ + ϕ 2 ) s i n ( ƒ n δ + ϕ n ) )
    Figure DE102020123652A1_0020
  • Diese Signalverläufe lassen sich technisch erzeugen, indem mehrere Messungen nacheinander erfolgen. Dabei wird die Intensität der Lichtquelle mit entsprechender Frequenz fi harmonisch moduliert. Die Shutterfunktionen sind rechteckig und mit der Frequenz fi periodisch. Über die Wahl der Zeitpunkte, wann die Shutter geöffnet bzw. geschlossen werden, lässt sich die Phasenverschiebung Φi einstellen.
  • Dabei kann dann die erste Komponente von S(δ) ein Beispiel für einen erster Wert von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der ersten Frequenz f1 sein, und die zweite Komponente von S(δ) ein Beispiel für einen zweite Wert von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der zweiten Frequenz f2 sein.
  • Für den allgemeinen Multipfad-Fall ohne Hintergrundlicht ergibt sich folgende Gleichung: M ( δ , a ) = M ( ( δ 1 , ..., δ n ) , ( a 1 ,..., a n ) ) = i = 1 n a i S ( δ i )
    Figure DE102020123652A1_0021
  • Der im Multipfad-Fall gemessene Multipfad-Vektor ergibt sich aus einer Linearkombination der Signalvektoren. Da sich die Summe der Reflexivitäten ai bestimmen lässt, wie oben beschrieben wurde, wird vereinfachend angenommen i = 1 n a i = 1 .
    Figure DE102020123652A1_0022
  • Lemma 1. Mit mehr als 2 phasenverschobenen Messungen für die gleiche Frequenz ist die Signalcodierung für den allgemeinen Multipfad-Fall (ohne Hintergrundlicht) überbestimmt.
  • Beweis: Sei M=Σi∈N aiS(δi). Dann gilt für die r-te Komponente Mr von M, dass Mr = Σi∈N ai · sin(fr · δ + ϕr) = i a i ( c o s ( ϕ r ) s i n ( ƒ r δ ) + s i n ( ϕ r ) c o s ( ƒ r δ ) ) = c o s ( ϕ r ) i a i s i n ( ƒ r δ ) + s i n ( ϕ r ) i a i c o s ( ƒ r δ ) .
    Figure DE102020123652A1_0023
  • Die Koeffizienten ai geben den Einfluss der Reflexivitäten der unterschiedlichen Pfade wieder und die Äquivalenz ergibt sich aus den Additionstheoremen. Werden jeweils 2 unterschiedliche Phasenverschiebungen bei der gleichen Frequenz gewählt, lässt sich das resultierende Gleichungssystem eindeutig nach Σi∈N ai sin(fr · δi) und Σi∈N ai cos(fr · δi) auflösen, sofern die Differenz der gewählten Phasen kein Vielfaches von π ist, und daraus alle Werte für weitere Phasenverschiebungen bei gleicher Frequenz fr bestimmen.
  • Daher werden im Folgenden die beiden Phasenverschiebungen für die verschiedenen Frequenzen immer 0 und π/2 betragen. Es werden also die trigonometrischen Funktionen sin und cos gewählt. Für eine andere Wahl der beiden Phasen lässt sich das resultierende Signal mit Lemma 1 für die Ansteuerung mit sin und cos transformieren. Dabei kann bei einer Sensoransteuerung mit mehr als 2 verschiedenen Phasenverschiebungen für eine spezifische Frequenz mittels der Methode der kleinsten Quadrate und der Pseudoinversen auf die Werte für sin und cos geschlossen werden. Gemäß verschiedenen Ausführungsformen wird ein geeignetes Frequenzverhältnisse für den Multipfad-Fall bereitgestellt. Der Signalvektor lautet nun: S ( δ ) = ( c o s ( ƒ 1 δ ) s i n ( ƒ 1 δ ) c o s ( ƒ 2 δ ) s i n ( ƒ 2 δ ) c o s ( ƒ n δ ) s i n ( ƒ n δ ) )
    Figure DE102020123652A1_0024
  • Im Folgenden wird der einfachste Multipfadfall mit nur 2 Pfaden beschrieben. Unter diesen Umständen setzt sich der Multipfadvektor als M ( δ 1 , δ 2 , r ) = ( 1 r ) S ( δ 1 ) + r S ( δ 2 )
    Figure DE102020123652A1_0025
    zusammen, wobei gilt: 0 ≤ r ≤ 1.
  • Gemäß verschiedenen Ausführungsformen wird die folgende Signalfunktion für den Fall des Multipfadproblems mit 2 Pfaden verwendet: S ( δ ) = ( c o s ( δ ) s i n ( δ ) c o s ( 2 δ ) s i n ( 2 δ ) )
    Figure DE102020123652A1_0026
  • Der Signalraum kann nun als C2 betrachtet werden: S ( δ ) = ( z 1 ' z 2 ' ) : = ( c o s ( δ ) + i s i n ( δ ) c o s ( 2 δ ) + i s i n ( 2 δ ) )
    Figure DE102020123652A1_0027
  • Dabei kann dann die erste Komponente von S(δ), also z 1 '
    Figure DE102020123652A1_0028
    ein Beispiel für einen erster Wert von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der ersten Frequenz f1 (beispielsweise δ) sein, und die zweite Komponente von S(δ), also z 2 ' ,
    Figure DE102020123652A1_0029
    ein Beispiel für einen zweite Wert von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der zweiten Frequenz f2 (beispielsweise 2δ) sein.
  • Die Trajektorie jeder Komponente verläuft damit jeweils auf einem Einheitskreis in der komplexen Ebene. Damit wird dieser für die doppelte Frequenz mit doppelter Geschwindigkeit durchlaufen. Also liegen die Punkte z 1 '
    Figure DE102020123652A1_0030
    und z 2 '
    Figure DE102020123652A1_0031
    auf dem entsprechenden Einheitskreis, meistens an verschiedenen Stellen. Der Multipfadeffekt eines normalisierten Signals wird als Konvexkombination von 2 Punkten auf der Trajektorie modelliert. Die Menge der Punkte p1, welche sich als Konvexkombination zweier fest gewählter Punkte auf dem Einheitskreis ergibt, bildet geometrisch betrachtet eine Sehne des Kreises. Die Punkte p2, welche sich aus dieser Konvexkombination ergeben, liegen auf einer weiteren Sehne des Einheitskreises. Möglicherweise entartet diese Sehne zu einem Punkt, wenn die Endpunkte der Sehne auf dem Einheitskreis mit doppelter Frequenz auf den gleichen Punkt abgebildet werden. Das geschieht genau bei einer Phasendifferenz von π- zwischen den beiden Phasenverschiebungen. Da sich das durch Multipfad-Effekte gestörte Signal als eine Konvexkombination von 2 Punkten ergibt, befinden sich beide Komponenten dieses Signal immer innerhalb der jeweiligen Einheitskreisscheibe. Sei nun z1 ein fester Wert eines Signals, das durch Multipfad-Effekte gestört wurde. Die Menge aller möglichen Konvexkombinationen von Phasenverschiebungen und Reflektionsverhältnissen, deren Signal in der ersten Komponente z1 ergibt, ist eindimensional und eindeutig über den Winkel y bestimmt. Dabei beschreibt y den Winkel, der von dem Durchmesser des Kreises, welcher durch z1 verläuft, und einer beliebigen Kreissehne durch z1 eingeschlossen wird, wie beispielhaft in 3 dargestellt.
  • 3 zeigt eine Illustration 300 einer sich in p1 schneidenden Konvexkombination.
  • Für z1 = 0 kann als Durchmesser hier die reelle Achse gewählt werden. Über die Endpunkte dieser Kreissehne sind damit die beiden Phasenverschiebungen δ eindeutig bestimmt. Der Winkel y verläuft im halboffenen Intervall [ π 2 , π 2 [ .
    Figure DE102020123652A1_0032
    Auf diese Weise besteht eine Bijektion zwischen y und der Menge zweier Punkte auf der Trajektorie, deren Konvexkombination z1 ergeben kann. Über die Trigonometrischen Identitäten resultieren dabei folgende Zusammenhänge.
  • Sei z1 = a · e in Polardarstellung geschrieben. Dann gilt Folgendes für die Winkel der beiden Endpunkte der Kreissehne und ihren zugeordneten Laufzeiten δ in Abhängigkeit des Winkels: δ 1 ( a , α , γ ) = α + γ arcsin ( a s i n ( γ ) ) δ 2 ( a , α , γ ) = π + α + γ + arcsin ( a sin ( γ ) )
    Figure DE102020123652A1_0033
  • Der Winkel γ kann dabei ein Beispiel sein für einen Winkel, der einer von dem ersten Wert z1 und dem zweiten Wert z2 abhängigen komplexen Zahl in Polardarstellung entspricht. Ebenfalls lässt sich das Verhältnis der Reflexivitäten r eindeutig wie folgt bestimmen: r ( a , γ ) = a c o s ( γ ) 2 1 a 2 sin 2 ( γ ) + 1 2 M ( a , α , γ ) = ( 1 r ( a , γ ) ) S ( δ 1 ( a , α , γ ) ) + r ( a , γ ) S ( δ 2 ( a , α , γ ) )
    Figure DE102020123652A1_0034
  • Damit kann jedes Signal in Abhängigkeit von a, α und δ geschrieben werden. Die obigen Zusammenhänge ergeben sich insbesondere unter Nutzung des Sinus- und Kosinussatzes am Einheitskreis. Die Werte a und δ können durch die Messung des Signals mit der Grundfrequenz bestimmt werden. Für den Einzelpfadfall mit a=1 liefert δ1 mit α das richtige Ergebnis. Also lässt sich das Multipfad-Problem mit zwei Pfaden lösen, wenn der Winkel γ bestimmt werden kann. Dazu werden die Informationen aus der weiteren Messung mit doppelter Frequenz genutzt. Wenn γ = 0 ist, haben die beiden Laufzeiten zueinander eine Phasenverschiebung von π, damit werden sie für die doppelte Frequenz auf den gleichen Punkt auf dem Einheitskreis abgebildet, d.h. z2 = e2iα.
  • Insgesamt ergibt sich für den gemessenen Wert z2 in Abhängigkeit von γ folgendes, indem die Gleichung (2.13) für die zweite Koordinate der Signalfunktion ausgewertet und vereinfacht wird. O.B.d.A ist α = 0, da α genau eine Rotation des Punktes z2 um den Ursprung mit der doppelten Frequenz bewirkt. Dann folgt: R e ( z 2 ) = ( a cos ( γ ) 2 1 a 2 sin 2 ( γ ) + 1 2 ) cos ( 2 ( γ arcsin ( a sin ( γ ) ) ) ) + ( a cos ( γ ) 2 1 a 2 sin 2 ( γ ) + 1 2 ) cos ( 2 ( π + γ + arcsin ( a sin ( γ ) ) ) ) = a 2 ( c o s ( 2 γ ) + 1 ) 2 + a 2 cos ( 2 γ ) a 2 2 cos ( 4 γ ) a 2 2 + cos ( 2 γ ) = 2 a 2 sin 2 ( γ ) 2 sin ( γ ) 2 + 1 = ( 1 a 2 ) cos ( 2 γ ) + a 2 I m ( z 2 ) = ( a cos ( γ ) 2 1 a 2 sin 2 ( γ ) + 1 2 ) sin ( 2 ( γ arcsin ( a sin ( γ ) ) ) ) + ( a cos ( γ ) 2 1 a 2 sin 2 ( γ ) + 1 2 ) cos ( 2 ( π + γ + arcsin ( a sin ( γ ) ) ) ) = 2 a 2 sin ( γ ) cos ( γ ) + 2 sin ( γ ) cos ( γ ) = ( 1 a 2 ) sin ( 2 γ )
    Figure DE102020123652A1_0035
  • Damit ist eine Kreisgleichung mit dem Radius (1 - a2) und Mittelpunkt a2 definiert, wobei der Kreis mit dem doppelten Wert des Winkels γ durchlaufen wird. Nun sorgt α für eine Rotation von z2 mit doppelter Frequenz. Also bilden die Punkte z2 für festen Punkt z1 insgesamt in Abhängigkeit von γ einen Kreis mit dem Radius 1-a2 und dem Mittelpunkt z 1 2 .
    Figure DE102020123652A1_0036
    Damit lässt sich der Winkel γ eindeutig bestimmen, um die Phasenverschiebungen aus der Überlagerung zweier Lichtpfade bei einem normalisierten, hintergrundlichtfreien Signal zu rekonstruieren. Auf diese Weise ergibt sich ein Verfahren zur Detektion der Laufzeit bei einer Überlagerung von 2 Pfaden. Wenn das Signal normalisiert ist, bestimmt das im Folgenden angegebene „Verfahren 1“ die Laufzeit der beiden Pfade, wie im Folgenden in Pseudocode angegeben.
    Verfahren 1 Decodierung des normalisierten Signals
    1: procedure DECODE(S1, S2, S3, S4) ➢Das normalisierte Signal
    2: z1 ← S1 + i · S2
    3: z2 ← S3 + i · S4 ➢Darstellung des ℝ4 als C2
    4: a ← |z1| ➢0 ≤ a ≤ 1 für die normalisierten Reflexivitäten
    5: α arctan ( I m ( z 1 ) R e ( z 1 ) )
    Figure DE102020123652A1_0037
    6: p z 2 z 1 2
    Figure DE102020123652A1_0038
    7: γ arctan ( I m ( p ) R e ( p ) ) 2
    Figure DE102020123652A1_0039
    ➢Für eine schnellere Laufzeit wurden die Terme gekürzt
    8: δ1 ← γ - arcsin(a • sin(γ - α))
    9: δ2 ← —π + γ + arcsin(α • sin(γ - α))
    10: return1, δ2) ➢Die Phasenverschiebungen der beiden Pfade
    11: end procedure
  • Dabei können S1 und S2 (also Real- und Imaginärteil von z1) Beispiele sein für den ersten und zweiten Komponentenwert von z1. Entsprechend können S3 und S4 (also Real- und Imaginärteil von z2) Beispiele sein für den ersten und zweiten Komponentenwert von z2.
  • Da der Radius der oben beschriebenen Kreisgleichung mit 1-a2 bekannt ist, bietet sich die Möglichkeit, das Signal alleine aus den Daten der vier Messungen zu normalisieren. Denn ein normalisiertes Signal S erfüllt die Gleichung |p| = | z 2 z 1 2 | = 1 a 2 .
    Figure DE102020123652A1_0040
    Wenn das Signal S ' = S s
    Figure DE102020123652A1_0041
    normalisiert ist, gilt somit: | z 2 S ( z 1 S ) 2 | = 1 | z 1 S | 2 s 4 ( 2 | z 1 | 2 + | z 2 | 2 ) s 2 + 2 Re ( z ¯ 2 z 1 2 ) s = 0 Da s > 0 sein muss , folgt s 3 ( 2 | z 1 | 2 + | z 2 | 2 ) s + 2 Re ( z ¯ 2 z 1 2 ) = 0
    Figure DE102020123652A1_0042
  • Sei s echt größer als die positive Summe der Reflexivitäten. Dann ergibt sich: | z 2 s ( z 1 s ) 2 | < | z 1 2 | z 1 2 | ( z 1 s ) 2 | = | z 1 2 z 1 2 | | ( z 1 s ) 2 | = 1 | z 1 s | 2 .
    Figure DE102020123652A1_0043
  • Für s = i = 1 n a i g i l t | z 1 | , | z 2 | s
    Figure DE102020123652A1_0044
    sowie | z 2 s ( z 1 s ) 2 | = 1 | z 1 s | 2 = | z 1 2 | z 1 2 | ( z 1 s ) 2 | | s z 2 z 1 2 | = | s 2 z 2 | z 1 2 | z 1 2 | .
    Figure DE102020123652A1_0045
  • Für s > i = 1 n a i
    Figure DE102020123652A1_0046
    gilt dann die Ungleichung * und in diesem Fall s 3 ( 2 | z 1 | 2 + | z 2 | 2 ) s + 2 Re ( z ¯ 2 z 1 2 ) > 0.
    Figure DE102020123652A1_0047
  • Also ergibt die größte Nullstelle der reduzierten kubischen Gleichung s 3 ( 2 | z 1 | 2 + | z 2 | 2 ) s + 2 Re ( z ¯ 2 z 1 2 ) = 0.
    Figure DE102020123652A1_0048
    die Summe der Reflexivitäten. Damit erhält man das im Folgenden als „Verfahren 2“ angegebene Verfahren, um das Signal zu normalisieren. Diese Nullstelle kann als Normierungsfaktor gewählt werden. Die Nullstelle kann ein Beispiel sein für den skalaren Gesamtwert, der auf dem ersten Wert und dem zweiten Wert basiert.
    Verfahren 2 Normalisierung des gemessenen Signals
    1: procedure NORMALIZE(S1, S2, S3, S4) ➢Die gemessene Signal
    2: z1 ← S1 + i · S2
    3: z2 ← S3 + i · S4 ➢Darstellung des ℝ4 als C2
    4: c ← -2 · |z1|2 - |z|2
    5: d 2 Re ( z ¯ 2 z 1 2 )
    Figure DE102020123652A1_0049
    ➢Koeffizienten der reduzierten kubischen Gleichung
    6: s 4 3 c cos ( 1 3 arcos ( d 2 27 c 3 ) )
    Figure DE102020123652A1_0050
    ➢cardanische Formel
    7: return ( S 1 s , S 2 s , S 3 s , S 4 s )
    Figure DE102020123652A1_0051
    ➢Das normalisierte Signal
    8: end procedure
  • Wenn die Phasenverschiebungen somit bestimmt wurden, lassen sich die zugehörigen Reflexivitäten ermitteln, indem das entsprechende lineare Gleichungssystem für den entsprechenden Pixel gelöst wird. Im Folgenden wird die Stabilität des Verfahrens analysiert. Dazu wird im Rahmen eines Monte-Carlo-Verfahrens zufällig generiertes Rauschen auf zufällig generierte Signale addiert und nachfolgend die Richtigkeit des Ergebnisses geprüft. Diese wird hier als gegeben angenommen, sofern der Phasenunterschied im Bogenmaß zwischen der echten Laufzeit δ0 mit der höheren Reflexivität und der rekonstruierten Laufzeit δre weniger als 10-4 beträgt. In der Praxis ist das Nutzsignal meistens stärker als das Störsignal. Daher wird hier als die zu rekonstruierende Laufzeit δre wird der Pfad mit der höheren Reflexivität betrachtet, der damit das Signal am stärksten beeinflusst. Dazu werden die beiden Laufzeiten δ1, δ2 ∈ [-π, π] und die Reflexivität r ∈ [0,1] gleichverteilt zufällig gewählt. Somit werden zufällige Signale erzeugt, auf die ein Rauschen mit einer Gaußverteilung addiert wird.
  • 4 zeigt eine Illustration 400 der Anzahl der korrekten Rekonstruktionen 402, aufgetragen über die Standardabweichungen der Gaußverteilung 404 von 10-10 bis 10-1. Jedes Mal wurden 10000 zufällige Signale erzeugt, die maximale Anzahl korrekter Rekonstruktionen beträgt also 10000.
  • 5 zeigt eine Illustration 500 des arithmetischen Mittels des absoluten Fehlers 502 über der Standardabweichung des Gaußrauschens 504, hierbei wurden jeweils 100000 Zufallssignale erzeugt.
  • Wie oben gezeigt, lässt sich bei einer Überlagerung von zwei Lichtpfaden eine eindeutige Entfernungsinformation rekonstruieren lässt. Dabei wird ein Multifrequenzverfahren mit zwei Modulationsfrequenzen eingesetzt, das Frequenzverhältnis liegt bei 2 zu 1.
  • Gemäß verschiedenen Ausführungsformen kann aber auch ein anderes Frequenzverhältnis gewählt werden, beispielsweise ein Frequenzverhältnis von 3 zu 1.
  • Bei einem Frequenzverhältnis von 3 zu 1 sind nicht mehr alle möglichen Kombinationen von Laufzeiten der beiden Lichtpfade eindeutig rekonstruierbar. Für die in der Praxis auftretenden Überlagerungen könnten aber dennoch viele gemessene Signalwerte eindeutig zwei Lichtpfaden zugeordnet werden. Die nun betrachtete Signalfunktion lautet: S ( δ ) = ( cos ( δ ) sin ( δ ) cos ( 3 δ ) sin ( 3 δ ) )
    Figure DE102020123652A1_0052
  • Gemäß verschiedenen Ausführungsformen wird eine Rekonstruktion in geschlossener Form bereitgestellt. Das im Folgenden angegebene „Verfahren 3“ zur Dekodierung des normalisierten Signals ähnelt dem Fall eines Multifrequenzverfahrens mit doppelter Oberfrequenz und basiert auf ähnlichen geometrischen Überlegungen.
    Verfahren 3 Die Decodierung des normalisierten Signals bei dreifacher Oberschwingung
    1: procedure DECODE(S1, S2, S3, S4) ➢Das gemessene Signal
    2: z1 ← S1 + i · S2
    3: z2 ← S3 + i · S4 ➢Darstellung des ℝ4 als C2
    4: α ← |z1| ➢0 ≤ a ≤ 1 für die normalisierten Reflexivitäten
    5: α arctan ( Im ( z 1 ) Re ( z 1 ) )
    Figure DE102020123652A1_0053
    6: p1 ← a · e3iα
    7: p ← z2 - p1
    8: γ a r c t a n ( I m ( p ) R e ( p ) ) 3 α 2
    Figure DE102020123652A1_0054
    9: δ1 ← α + γ - arcsin(a · sin(γ))
    10: δ2 ← π + α + γ + arcsin(a · sin(γ))
    11: return1, δ2) ➢Die Phasenverschiebungen der beiden Pfade
    12: end procedure
  • Im Folgenden wird das Normalisieren des Signals gemäß verschiedenen Ausführungsformen beschrieben. Die allgemeine Parameterdarstellung einer Kardioide lautet in Polarkoordinaten mit Winkel γ und Parameter c: r(y) = 2c(1 - cos(γ)). Bei fester Wahl des Punktes z1 = aeαi bilden die komplexen Zahlen p für alle möglichen Signale im Bild von M(a, δ) eine Kardioide im komplexen Einheitskreis mit Parameter c = a - a3 s. Ein normalisiertes Signal S erfüllt somit die Gleichung | p | = 2 * ( a a 3 ) ( 1 cos ( γ ) ) .
    Figure DE102020123652A1_0055
  • Somit ist das Signal S ' = s s
    Figure DE102020123652A1_0056
    mit s>0 normalisiert, wenn gilt: | p | s = 2 ( a s a 3 s 3 ) ( 1 cos ( γ ) ) ( | p | 1 cos ( γ ) 2 a ) s 2 = 2 a 3 ( s > 0 )
    Figure DE102020123652A1_0057
  • Aus dieser Gleichung s = 2 a 3 | p | 1 cos ( γ ) 2 a
    Figure DE102020123652A1_0058
    ergibt sich das im Folgenden angegebene „Verfahren 4“ zum Normalisieren des Signals.
    Verfahren 4 Normalisierung bei dreifacher Oberschwingung
    1: procedure normalize(S1, S2, S3, S4) > Die gemessene Signal
    2: z1 ← S1 + i · S2
    3: z2 ← S3 + i · S4 ➢Darstellung des ℝ4 als C2
    4: a ← |z1|
    5: α arctan ( Im ( z 1 ) Re ( z 1 ) )
    Figure DE102020123652A1_0059
    6: p1 ← a · ei3α
    7: p ← z2 - p1
    8: γ a r c t a n ( I m ( p ) R e ( p ) ) 3 α
    Figure DE102020123652A1_0060
    9: d | p | 1 cos ( γ ) 2 a
    Figure DE102020123652A1_0061
    ➢Keine Normalisierung ist möglich, wenn der Nenner d ≥ 0 ist
    10: s 2 a 3 d
    Figure DE102020123652A1_0062
    11: return ( S 1 s , S 2 s , S 3 s , S 4 s )
    Figure DE102020123652A1_0063
    ➢Das normalisierte Signal
    12: end procedure
  • Im Folgenden wird die Überlagerung von drei Lichtpfaden beschrieben. Ein normalisierter Multipfadeffekt, der sich als Überlagerung von 3-Pfaden ergibt, lässt sich durch folgende Abbildung beschreiben: M ( a , δ ) = i = 1 3 a i S ( δ i ) = a 1 S ( δ 1 ) + a 2 S ( δ 2 ) + a 3 S ( δ 3 ) mit 0 a 1 , a 2 , a 3 : a 1 + a 2 + a 3 = 1
    Figure DE102020123652A1_0064
  • Als Signalfunktion kann in diesem Fall in Analogie zu dem Fall mit 2 Lichtpfaden und den obigen Überlegungen der Signalvektor S folgendermaßen gewählt werden: S ( δ i ) = ( cos ( δ i ) sin ( δ i ) cos ( 2 δ i ) sin ( 2 δ i ) cos ( 3 δ i ) sin ( 3 δ i ) )
    Figure DE102020123652A1_0065
  • Die Trajektorie verläuft also in einem sechsdimensionalen Signalraum. Sei nun Sm das durch Multipfad-Effekte gestörte Signal, zur Rekonstruktion des Signals wird nun folgendes Verfahren genutzt. E r ( S m , a , δ ) = S m M ( a , δ )
    Figure DE102020123652A1_0066
  • Die Gleichung beschreibt den Fehler zwischen dem gemessenen und modellierten Signal. Die rekonstruierten Laufzeiten δ ergeben sich dann mittels: R e ( S m ) = arg min δ , a E r ( S m , a , δ )
    Figure DE102020123652A1_0067
  • Wenn die Laufzeiten eindeutig rekonstruierbar sind und das gemessene Signal Sm im Bild(M) liegt, ist Re(Sm) auf jeden Fall wohldefiniert. Denn in diesem Fall besitzt Er(Sm, a, δ) genau eine Nullstelle. Die rekonstruierten Laufzeiten können mit numerischen Minimierern ermittelt werden. Dazu können Startwerte vorgegeben werden, die sich nahe der Stelle befinden, an der das Minimum angenommen wird.
  • Wenn die Laufzeiten und ein Signal vorgegeben werden, lassen sich zugehörige Reflexivitäten folgendermaßen bestimmen. Definiere die gemessene Signalkomponente S m i : = M ( a , δ ) i
    Figure DE102020123652A1_0068
    für entsprechende a, δ. Damit gilt dann: M ( a , δ ) = i = 1 3 a i S ( δ i ) = a 1 S ( δ 1 ) + a 2 S ( δ 2 ) + a 3 S ( δ 3 ) S m 1 = a 1 S 1 ( δ 1 ) + a 2 S 1 ( δ 2 ) + a 3 S 1 ( δ 3 ) S m 2 = a 1 S 2 ( δ 1 ) + a 2 S 2 ( δ 2 ) + a 3 S 2 ( δ 3 ) S m 1 = a 1 cos ( δ 1 ) + a 2 cos ( δ 2 ) + a 3 cos ( δ 3 ) S m 2 = a 1 sin ( δ 1 ) + a 2 sin ( δ 2 ) + a 3 sin ( δ 3 )
    Figure DE102020123652A1_0069
  • Dabei beschreibt der obere Index die i-te Komponente des vektorwertigen Signals.
  • Zusätzlich mit a1 + a2 + a3 = 1 bedingt dies das folgende lineare Gleichungssystem: K ( δ ) a : = ( cos ( δ 1 ) cos ( δ 2 ) cos ( δ 3 ) sin ( δ 1 ) sin ( δ 2 ) sin ( δ 3 ) 1 1 1 ) ( a 1 a 2 a 3 ) = ( S m 1 S m 2 1 )
    Figure DE102020123652A1_0070
  • Das ist für paarweise unterschiedliche Werte von δ1, δ2, δ3 im Intervall [-π-, π) stets eindeutig lösbar, da die Matrix K(δ) in diesen Fällen vollen Rang hat. Auf diese Weise können die Koeffizienten a mit a ' ( δ , S m ) = K ( δ ) 1 ( S m 1 S m 2 1 )
    Figure DE102020123652A1_0071
    in einer Umgebung um die Nullstelle von Er(Sm, a, δ) abgeschätzt werden. Damit ergibt sich eine weitere Fehlerfunktion E r ' ( S m , δ ) = S m M ( a ' ( δ , S m ) , δ )
    Figure DE102020123652A1_0072
    und die dazugehörigen rekonstruierten Laufzeiten mit R e ( S m ) = arg min δ E r ' ( S m , δ )
    Figure DE102020123652A1_0073
  • Wenn Sm im Bild(M) liegt, besitzt auch diese Fehlerfunktion eine Nullstelle, die bei Injektivität von M eindeutig ist. In diesem Fall kann die Anzahl der Variablen, über die minimiert wird, halbiert werden. Der Suchraum ist nur noch dreidimensional.
  • Als Startwert für die numerischen Optimierer müssen nun Werte für die 3 Laufzeiten angegeben werden. Dabei können die Ergebnisse der geschlossenen Form für 2 Laufzeiten genutzt werden.
  • Gute Resultate können mit den Startwerten (ϕ1 - ∈, ϕ2 - ∈, ϕ2 + ∈) erzielt werden, wobei die Laufzeiten (ϕ1, ϕ2) die Lösungen der geschlossenen Form für die Überlagerung von 2 Lichtpfaden sind, die gute Näherungen für die Startwerte liefern. Die Zahl ∈ stellt eine kleine Verschiebung der Näherungen dar, die sicherstellt, dass die Matrix K(δ) vollen Rang hat.
  • Im Folgenden wird eine dimensionale Reduktion des Signalraumes gemäß verschiedenen Ausführungsformen beschrieben. Dabei wird der Signalraum als ℂ3 betrachtet. Dann lautet die Signalfunktion S ( δ ) = ( z 1 z 2 z 3 ) = ( e i δ e 2 i δ e 3 i δ )
    Figure DE102020123652A1_0074
  • Eine Verschiebung der Laufzeit δ wirkt sich dann folgendermaßen auf das Signal aus: S ( δ + κ 1 V ) : = ( e i ( δ + κ ) e 2 i ( δ + κ ) e 3 i ( δ + κ ) ) = ( e i δ e 2 i δ e 3 i δ ) ( e i κ e 2 i κ e 3 i κ )
    Figure DE102020123652A1_0075
  • Dabei beschreibt ◦ das Hadamard-Produkt, also die komponentenweise Vektormultiplikation. Mit der Linearität der Summe gilt diese Gleichung auch im Multipfadfall. Es gilt dann: M ( a , δ + κ 1 V ) = M ( a , δ ) ( e i κ e 2 i κ e 3 i κ )
    Figure DE102020123652A1_0076
  • Sei nun z1 = a · e das gemessene Signal, welches der Grundfrequenz zugeordnet ist. Dann gilt: M ( a , δ + α 1 V ) = M ( a , δ ) ( e i α e 2 i α e 3 i α ) .
    Figure DE102020123652A1_0077
  • Durch diese Transformation des Signals gilt, dass Im(z1) = 0 ist, wodurch die Dimensionalität des Signalraums also reduziert wurde. Können nun die Laufzeiten δ' für das transformierte Signal ermittelt werden, ergeben sich mit δ = δ + α · 1v die ursprünglichen Laufzeiten erneut. Dieses Verfahren funktioniert analog auch für Signalfunktionen mit mehr als 3 paarweise unterschiedlichen Frequenzen. Wenn die Laufzeit eines Lichtpfades als bekannt vorausgesetzt wurde, konnten die übrigen beiden Lichtpfade in geschlossener Form und in Analogie zu dem System mit 2 Pfaden bestimmt werden über die Messungen mit der Grundfrequenz und der doppelten Frequenz. Davon ausgehend und mit trigonometrischen Umformungen, ähnlich dem Fall mit 2 Lichtpfaden, kann die Fehlerfunktion nur in Abhängigkeit von einer Variablen aufgestellt werden und skalare Optimierer zur Rekonstruktion der der Laufzeiten der Pfade genutzt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19704496 C2 [0003]
    • US 9753128 B1 [0004]

Claims (14)

  1. Verfahren zum Bestimmen mindestens einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden zwischen von einer Lichtquelle einer Lichtlaufzeitkamera emittierten Lichtsignalen und von einem Bildsensor der Lichtlaufzeitkamera durch Streuung oder Reflektion der emittierten Lichtsignale an mindestens einem Objekt empfangenen Lichtsignalen, wobei das Verfahren umfasst: - Steuern der Lichtquelle zum Aussenden einer Mehrzahl von Lichtsignalen, wobei jedes Lichtsignal einen zeitlichen Intensitätsverlauf basierend auf einer jeweiligen Frequenz aufweist, wobei mindestens eine erste Frequenz und eine von der ersten Frequenz verschiedene zweite Frequenz verwendet werden; - Ermitteln mindestens eines ersten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der ersten Frequenz; - Ermitteln mindestens eines zweiten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der zweiten Frequenz; und - Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds basierend auf den ermittelten jeweiligen ersten und zweiten Werten unter Berücksichtigung von mindestens zwei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor; - wobei die Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds ferner basiert auf der Ermittlung eines Winkels, der einer von dem ersten Wert und dem zweiten Wert abhängigen komplexen Zahl in Polardarstellung entspricht.
  2. Verfahren nach Anspruch 1, wobei der Winkel ermittelt wird basierend auf einer Berechnung eines Arcustangens basierend auf dem ersten Wert und dem zweiten Wert.
  3. Verfahren nach einem der Ansprüche 1 oder 2, wobei der mindestens eine erste Wert zwei erste Komponenten-Werte, die als eine erste komplexe Zahl darstellbar sind, umfassen; wobei der mindesteins eine zweite Wert zwei zweite Komponenten-Werte, die als eine zweite komplexe Zahl darstellbar sind, umfassen; und wobei der Winkel ermittelt wird basierend auf einem Wert bzw. auf Werten, der bzw. die einer Differenz zwischen der zweiten komplexen Zahl und dem Quadrat der ersten komplexen Zahl entspricht bzw. entsprechen.
  4. Verfahren zum Bestimmen mindestens einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden zwischen von einer Lichtquelle einer Lichtlaufzeitkamera emittierten Lichtsignalen und von einem Bildsensor der Lichtlaufzeitkamera durch Streuung oder Reflektion der emittierten Lichtsignale an mindestens einem Objekt empfangenen Lichtsignalen, wobei das Verfahren umfasst: - Steuern der Lichtquelle zum Aussenden einer Mehrzahl von Lichtsignalen, wobei jedes Lichtsignal einen zeitlichen Intensitätsverlauf basierend auf einer jeweiligen Frequenz aufweist, wobei mindestens eine erste Frequenz und eine von der ersten Frequenz verschiedene zweite Frequenz verwendet werden; - Ermitteln mindestens eines ersten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der ersten Frequenz; - Ermitteln mindestens eines zweiten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der zweiten Frequenz; und - Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds basierend auf den ermittelten jeweiligen ersten und zweiten Werten unter Berücksichtigung von mindestens zwei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor; - wobei die Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds ausschließlich auf analytischen Berechnungen und/oder exakten Berechnungen und/oder nicht-iterativen Berechnungen und/oder nicht-näherungsweisen Berechnungen basiert.
  5. Verfahren zum Bestimmen mindestens einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden zwischen von einer Lichtquelle einer Lichtlaufzeitkamera emittierten Lichtsignalen und von einem Bildsensor der Lichtlaufzeitkamera durch Streuung oder Reflektion der emittierten Lichtsignale an mindestens einem Objekt empfangenen Lichtsignalen, wobei das Verfahren umfasst: - Steuern der Lichtquelle zum Aussenden einer Mehrzahl von Lichtsignalen, wobei jedes Lichtsignal einen zeitlichen Intensitätsverlauf basierend auf einer jeweiligen Frequenz aufweist, wobei mindestens eine erste Frequenz und eine von der ersten Frequenz verschiedene zweite Frequenz verwendet werden; - Ermitteln mindestens eines ersten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der ersten Frequenz; - Ermitteln mindestens eines zweiten Werts von in der Lichtlaufzeitkamera empfangenen Lichtsignalen in der zweiten Frequenz; und - Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds basierend auf den ermittelten jeweiligen ersten und zweiten Werten unter Berücksichtigung von mindestens zwei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor; - wobei die Berechnung der mindestens einen Entfernungsinformation des dreidimensionalen Bilds ferner basiert auf einem Normieren der jeweiligen Signale basierend auf einem skalaren Gesamtwert, der auf dem ersten Wert und dem zweiten Wert basiert.
  6. Verfahren nach Anspruch 5, wobei das Normieren auf einer Bestimmung von Nullstellen eines Polynom dritten oder höheren Grades basiert.
  7. Verfahren nach einem der Ansprüche 5 oder 6, wobei der mindestens eine erste Wert zwei erste Komponenten-Werte, die als eine erste komplexe Zahl darstellbar sind, umfasst; wobei der mindestens eine zweite Wert zwei zweite Komponenten-Werte, die als eine zweite komplexe Zahl darstellbar sind, umfasst; und wobei ein Normierungsfaktor der Normierung ermittelt wird basierend auf einem Wert bzw. auf Werten, der bzw. die einer Differenz zwischen der zweiten komplexen Zahl und dem Quadrat der ersten komplexen Zahl entspricht bzw. entsprechen.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei der erste Wert einer ersten Intensität oder einer ersten Intensitätsdifferenz entspricht; und wobei der zweite Wert einer zweiten Intensität oder einer zweiten Intensitätsdifferenz entspricht.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei der mindestens eine erste Wert zwei erste Intensitäten oder zwei erste Intensitätsdifferenzen umfasst, die zumindest im Wesentlichen um 90° phasenverschoben zueinander ermittelt werden; und wobei der mindestens eine zweite Werte zwei zweite Intensitäten oder zwei zweite Intensitätsdifferenzen umfasst, die zumindest im Wesentlichen um 90° phasenverschoben zueinander ermittelt werden.
  10. Verfahren nach einem der Ansprüche 1 bis 9, wobei die zweite Frequenz zumindest im Wesentlichen doppelt so groß ist wie die erste Frequenz.
  11. Verfahren zum Bestimmen einer Entfernungsinformation für ein dreidimensionales Bild aus mindestens zwei Laufzeitunterschieden zwischen von einer Lichtquelle einer Lichtlaufzeitkamera emittierten Lichtsignalen und von einem Bildsensor der Lichtlaufzeitkamera durch Streuung oder Reflektion der emittierten Lichtsignale an mindestens einem Objekt empfangenen Lichtsignalen, wobei das Verfahren umfasst: Ermittlung von mindestens zwei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor unter Verwendung des Verfahrens nach einem der Ansprüche 1 bis 10; Ermittlung von Entfernungsinformation basierend auf mindestens drei Pfaden der emittierten Lichtsignale von der Lichtquelle zum Bildsensor mittels eines iterativen numerischen Verfahrens, wobei für das iterative numerische Verfahren mindestens drei Startwerte für die mindestens drei Pfade basierend auf den ermittelten mindestens zwei Pfaden ermittelt werden.
  12. Kamerasystem umfassend eine Lichtlaufzeitkamera mit einer Lichtquelle, einem Bildsensor und einer Synchronisationseinrichtung und eine Recheneinheit, zur Ausführung des Verfahrens nach einem der Ansprüche 1 bis 11.
  13. Vorrichtung umfassend eine Synchronisationseinrichtung und eine Recheneinheit, die ausgestaltet ist zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 11.
  14. Computerprogramm zum Speichern auf einem Datenträger und zum Veranlassen einer Computervorrichtung zum Ausführen des Verfahrens nach einem der Ansprüche 1 bis 11, wenn das Computerprogramm auf der Computervorrichtung ausgeführt wird.
DE102020123652.2A 2020-09-10 2020-09-10 Verfahren und Vorrichtungen zum Bestimmen von Entfernungsinformation Pending DE102020123652A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102020123652.2A DE102020123652A1 (de) 2020-09-10 2020-09-10 Verfahren und Vorrichtungen zum Bestimmen von Entfernungsinformation
US17/469,949 US20220075071A1 (en) 2020-09-10 2021-09-09 Method of Apparatus for Determining Distance Information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020123652.2A DE102020123652A1 (de) 2020-09-10 2020-09-10 Verfahren und Vorrichtungen zum Bestimmen von Entfernungsinformation

Publications (1)

Publication Number Publication Date
DE102020123652A1 true DE102020123652A1 (de) 2022-03-10

Family

ID=80266649

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020123652.2A Pending DE102020123652A1 (de) 2020-09-10 2020-09-10 Verfahren und Vorrichtungen zum Bestimmen von Entfernungsinformation

Country Status (2)

Country Link
US (1) US20220075071A1 (de)
DE (1) DE102020123652A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496C2 (de) 1996-09-05 2001-02-15 Rudolf Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE10039422A1 (de) 2000-08-11 2002-02-28 Siemens Ag Verfahren und Vorrichtungen zum Betrieb eines PMD-System
DE102015225192A1 (de) 2014-12-15 2016-06-16 Pmdtechnologies Gmbh Lichtlaufzeitmesssystem mit Überreichweitenerkennung
US9753128B2 (en) 2010-07-23 2017-09-05 Heptagon Micro Optics Pte. Ltd. Multi-path compensation using multiple modulation frequencies in time of flight sensor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496C2 (de) 1996-09-05 2001-02-15 Rudolf Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE10039422A1 (de) 2000-08-11 2002-02-28 Siemens Ag Verfahren und Vorrichtungen zum Betrieb eines PMD-System
US9753128B2 (en) 2010-07-23 2017-09-05 Heptagon Micro Optics Pte. Ltd. Multi-path compensation using multiple modulation frequencies in time of flight sensor
DE102015225192A1 (de) 2014-12-15 2016-06-16 Pmdtechnologies Gmbh Lichtlaufzeitmesssystem mit Überreichweitenerkennung

Also Published As

Publication number Publication date
US20220075071A1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
DE102016002398B4 (de) Optischer 3D-Sensor zur schnellen und dichten Formerfassung
DE69924136T2 (de) Phasenmessung in einem strahlungsfeld
EP1494044B1 (de) Verfahren zur Hinderniserkennung und Geländeklassifikation
EP1757956A1 (de) Mehrzielfähiges Distanzmessverfahren nach dem Phasenmessprinzip
DE4432002A1 (de) Verfahren zur Rekonstruktion von in Rasterform vorliegenden Linienstrukturen
EP2275989A1 (de) Stereoskopische 3D-Kamera
EP2627968B1 (de) Vorrichtung und verfahren zur dreidimensionalen bilderfassung
DE102015105161B4 (de) Eine Vorrichtung und ein Verfahren zum Detektieren einer Bewegung eines Objekts in einem Zielraum
EP3433577B1 (de) Vorrichtung und verfahren zum verknüpfen von messsignalen aus beleuchtungssignalen
DE102018004592A1 (de) Messapparat für dreidimensionale Geometrie und Messverfahren für dreidimensionale Geometrie
CN103942802A (zh) 基于随机模板的结构光动态场景深度获取方法
EP0626563B1 (de) Positionsmesseinrichtung mit Hologramm-Masstab
WO2017211665A1 (de) Verfahren zur bestimmung einer phase eines eingangsstrahlenbündels
DE102016116572A1 (de) Ausrichtung von Punktwolken zur Modellierung von Innenräumen
DE102020123652A1 (de) Verfahren und Vorrichtungen zum Bestimmen von Entfernungsinformation
DE1549625A1 (de) Anordnung zur Differentiation von Lichtmustern
EP3274652B1 (de) Streifenprojektionsverfahren, streifenprojektionsvorrichtung und computerprogrammprodukt
DE3930554A1 (de) Vorrichtung zur absoluten zweidimensionalen positions-messung
DE10064037B4 (de) Streifenanalyseverfahren unter Verwendung der Fouriertransformation
DE102015205187A1 (de) Verfahren und Vorrichtung zur Projektion von Linienmustersequenzen
EP4000005A1 (de) VERFAHREN ZUM ERMITTELN EINER POSITION EINES ERSTEN BILDBEREICHS IN EINEM KORRESPONDENZ-BILD, SoC UND STEUERVORRICHTUNG UND SYSTEM ZUR DURCHFÜHRUNG DES VERFAHRENS, SOWIE COMPUTERPROGRAMM
DE2255446A1 (de) Interferometer
DE102018006932A1 (de) Bildverarbeitungseinrichtung und -programm
EP3214602B1 (de) Verfahren zur dreidimensionalen erfassung von objekten
WO2020160861A1 (de) Kalibrierung eines sensors für ein fahrzeug basierend auf objektseitigen und bildseitigen identifikationsindizes eines referenzobjektes

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed