DE102020127332A1 - Lichtlauftzeitkamerasystem - Google Patents

Lichtlauftzeitkamerasystem Download PDF

Info

Publication number
DE102020127332A1
DE102020127332A1 DE102020127332.0A DE102020127332A DE102020127332A1 DE 102020127332 A1 DE102020127332 A1 DE 102020127332A1 DE 102020127332 A DE102020127332 A DE 102020127332A DE 102020127332 A1 DE102020127332 A1 DE 102020127332A1
Authority
DE
Germany
Prior art keywords
distance
value
time
values
distance values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020127332.0A
Other languages
English (en)
Inventor
Christoph Wiedemann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IFM Electronic GmbH
Original Assignee
IFM Electronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IFM Electronic GmbH filed Critical IFM Electronic GmbH
Priority to DE102020127332.0A priority Critical patent/DE102020127332A1/de
Publication of DE102020127332A1 publication Critical patent/DE102020127332A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Abstract

Verfahren zum Betreiben eines Lichtlaufzeitkamerasystems mit einem Lichtlaufzeitsensor bestehend aus einem Array von Lichtlaufzeitpixeln an einem Fahrzeug,bei dem eine Bewegung des Fahrzeugs erfasst und für Berechnungen zur Verfügung gestellt wird,mit den Schritten:a) Ermittlung von Rohdistanzwerten (mij(tn,fs)) zu einem ersten Erfassungsframe (tn) und mit einer ersten Modulationsfrequenz (fs),b) Überführung der Rohdistanzwerte (mij(tn,fs)) in Distanzwerte (dij(tn,fs,k)) unter der Vorgabedij[tn, fs, k]=mij[tn, fs]+k*EB(fs)mit einem k-Wert als Zähler von 0 bis einem maximalen k-Wertund einem frequenzabhängigen Eindeutigkeitsbereich (EB),c) Rückrechnung der Distanzwerte (dij(tn,fs,k))in Distanzwerte d'pq(tn-1,fs,k) eines vorhergehenden Erfassungsframes (tn-1) unter Berücksichtigung der zwischen den beide Erfassungsframes (t1, t2, Δx) stattgefundenen Bewegung (TΔx) des Fahrzeugs,d) Grenzwert-Vergleich des rückgerechneten Distanzwerts d'pq(tn-1,fs,k) mit einem entsprechenden Rohdistanzwert mpq(tn-1,fs-1) desselben Pixels Pixpqnach der Vorschrift:|d'pq[tn-1, fs, k]−mpq[tn-1, fs-1]|(mod EB(tn-1, fs-1))<GWe) Ausgabe des im Schritt b) ermittelten Distanzwert dij(tn,fs,k) als valide, wenn ein k-Wert existiert, bei dem der Grenzwert GW unterschritten wird, unter Berücksichtigung des ermittelten k-Werts,f) Wiederholung der vorgenannten Schritte für einen nächsten Erfassungsframe (tn+1) mit einer nächsten Frequenz (fs+1).

Description

  • Die Erfindung betrifft ein Lichtlaufzeitkamerasystem und ein Verfahren zum Betreiben eines solchen nach Gattung der unabhängigen Ansprüche.
  • Mit Lichtlaufzeitkamerasystem sollen nicht nur Systeme umfasst sein, die Entfernungen aus einer Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie beispielsweise in der DE 197 04 496 beschrieben sind.
  • Für die Bestimmung einer Entfernung bzw. einer entsprechenden Phasenverschiebung des reflektierten Lichts wird, wie in der DE 197 04 496 ausführlich beschrieben, im PMD-Sensor das reflektierte Licht mit dem modulierenden Signal gemischt. Diese Mischung liefert ein in Phase liegendes Signal (0°) und ein um 180° versetztes Signal, aus dem in bekannter Weise eine Entfernung bestimmt werden kann. Zur Verbesserung der Qualität der Entfernungsmessung kann es vorgesehen sein, die Sendemodulation gezielt beispielsweise um 90°, 180° oder 270° zu verschieben und vorzugsweise mittels einer IQ- (Inphase-Quadratur-) Demodulation einen Phasenwinkel des reflektierten in Relation zum gesendeten Signal zu bestimmen. Dieses Vorgehen ist insbesondere nützlich zur Gewinnung von redundanten Informationen, um beispielsweise verschiedene parasitäre Effekte wie fixed pattern noise (FPN), Hintergrundlicht oder Asymmetrien des Sensors zu kompensieren.
  • Aufgabe der Erfindung ist es, die Entfernungsmessung eines Lichtlaufzeitkamerasystems zu verbessern.
  • Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Lichtlaufzeitkamerasystem und Verfahren nach Gattung der unabhängigen Ansprüche gelöst.
  • Vorteilhaft ist ein Verfahren zum Betreiben eines Lichtlaufzeitkamerasystems vorgesehen, mit einem Lichtlaufzeitsensor bestehend aus einem Array von Lichtlaufzeitpixeln an einem Fahrzeug,
    bei dem eine Bewegung des Fahrzeugs erfasst und für Berechnungen zur Verfügung gestellt wird,
    mit den Schritten:
    1. a) Ermittlung von Rohdistanzwerten (mij(tn,fs)) zu einem ersten Erfassungsframe (tn) und mit einer ersten Modulationsfrequenz (fs),
    2. b) Überführung der Rohdistanzwerte (mij(tn,fs)) in Distanzwerte (dij(tn,fs,k)) unter der Vorgabe d ij [ t n , f s , k ] = m ij [ t n , f s ] + k * EB ( f s )
      Figure DE102020127332A1_0003
      mit einem k-Wert als Zähler von 0 bis einem maximalen k-Wert und einem frequenzabhängigen Eindeutigkeitsbereich (EB),
    3. c) Rückrechnung der Distanzwerte (dij(tn,fs,k)) in Distanzwerte d'pq(tn-1,fs,k) eines vorhergehenden Erfassungsframes (tn-1) unter Berücksichtigung der zwischen den beide Erfassungsframes (t1, t2, Δx) stattgefundenen Bewegung (TΔx) des Fahrzeugs,
    4. d) Grenzwert-Vergleich des rückgerechneten Distanzwerts d'pq(tn-1,fs,k) mit einem entsprechenden Rohdistanzwert mpq(tn-1,fs-1) desselben Pixels Pixpq nach der Vorschrift: | d' pq [ t n-1 , f s , k ] m pq [ t n-1 , f s-1 ] | ( mod EB ( t n-1 , f s-1 ) ) < GW
      Figure DE102020127332A1_0004
    5. e) Ausgabe des im Schritt b) ermittelten Distanzwert dij(tn,fs,k) als valide, wenn ein k-Wert existiert, bei dem der Grenzwert GW unterschritten wird, unter Berücksichtigung des ermittelten k-Werts,
    6. f) Wiederholung der vorgenannten Schritte für einen nächsten Erfassungsframe (tn+i) mit einer nächsten Frequenz (fs+1).
  • Dieses Vorgehen hat den Vorteil, dass mit Hilfe von schnell durchführbaren Berechnungen valide und gültige Entfernungsdaten ausgegeben werden.
  • Besonders vorteilhaft ist es, wenn die Rückrechnung gemäß Punkt c) mit folgende Schritten durchgeführt wird:
    • c1) Überführung der Distanzwerte (dij(tn,fs,k)) in Koordinatenwerte (kij(tn,fs,k))
    • c2) Rückrechnung der Koordinatenwerte (kij(tn,fs,k)) in Koordinatenwerte (k'ij(tn-1,fs,k)) auf einen vorherigen Zeitpunkt (tn-1) unter Berücksichtigung der zwischen den beide Zeitpunkten (t1, t2, Δx) stattgefundenen Bewegung (TΔx) des Fahrzeugs,
    • c3) Überführung der rückgerechneten Koordinatenwerte (k'ij(tn-1,fs,k)) in rückgerechnete Distanzwerte (d'pq(tn-1,fs,k)).
  • Nützlich ist es, wenn für direkt aufeinander folgenden Erfassungsframes (tn, tn+1) unterschiedliche Modulationsfrequenzen (fn) verwendet werden.
  • Bevorzugst werden die Modulationsfrequenzen (fs) aus einem Satz von vorgegebenen Modulationsfrequenzen verwendet, wobei der Satz eine vorgegebene maximale Anzahl (smax) an Modulationsfrequenzen aufweist.
  • In einer weiteren Ausgestaltung ist es von Vorteil, für eine Ausgabe eines gültigen Entfernungswerts (dij) die Distanzen über eine Anzahl von Erfassungsframes (tn) zu ermitteln, die größer ist als die Anzahl (smax) der im Modulationsfrequenzsatz (fs) vorgegebenen Modulationsfrequenzen.
  • Hierdurch lassen sich insbesondere Messartefakte vermeiden, die durch eine homogene Szenerie entstehen können.
  • Nützlich ist es ein inkrementeller Zähler (Cij) vorzusehen, der die Erfassungsframes mit validen Distanzwerten aufsummiert, wobei der Zähler (Cij) auf Null gesetzt wird sobald ein Erfassungsframe ein ungültigen Distanzwert aufweist.
  • Vorteilhaft ist eine Ausgestaltung vorgesehen, bei der ausgehend von einer Pixelkoordinate (pq), die sich aus dem rückgerechneten Distanzwert (d'pq) ergibt auch benachbarte Pixel dem Grenzwert-Vergleich gemäß Schritt d) des Anspruchs 1 unterzogen werden.
  • In einer solchen Ausgestaltung ist es hilfreich, wenn mehrere Pixel den Grenzwert unterschreiten, das Pixel heranzuziehen, dessen inkrementeller Zähler (Cuv) den höchsten Wert zeigt und der inkrementelle Zähler (Cuv) dieses Pixels um Eins zu erhöhen.
  • Besonders vorteilhaft ist es, ein Lichtlaufzeitkamerasystem (1) mit einem Modulator (30), der mit einer Beleuchtung (10) und einem Empfänger (20) des Lichtlaufzeitkamerasystems (1) verbunden ist,
    ein Modulationssteuergerät (38) mit dem Modulator (30) verbunden ist und derart ausgestaltet ist, dass der Modulator (30) mit mindestens zwei Modulationsfrequenzen (f1, f2, f3) betreibbar ist,
    vorzusehen,
    und das Lichtlaufzeitkamerasystem (1) zur Durchführung eines der vorgenannten Verfahren auszubilden.
  • Es zeigen:
    • 1 schematisch das grundlegende Prinzip der Photomischdetektion,
    • 2 eine modulierte Integration der erzeugten Ladungsträger,
    • 3 zwei zeitliche Verläufe der Ladungsintegration mit unterschiedlichen Phasenlagen,
    • 4 Relation der Integration in einem IQ-Diagramm,
    • 5 eine Distanzmessung mit einer Wellenlänge,
    • 6 eine Distanzmessung mit zwei unterschiedlichen Wellenlängen,
    • 7 einen Verlauf der Phasenverschiebungen mit dem Abstand,
    • 8 einen Verlauf der Distanzwerte für unterschiedliche Wellenlängen,
    • 9 schematisch eine Entfernungsbestimmung für unterschiedliche Wellenlängen,
    • 10, schematisch ein von einem Pixelarray erfasstes Objekt,
    • 11 ein gegenüber dem Beispiel gemäß 10 bewegten Sensor.
    • 12 schematisch eine Rückrechnung der Entfernungen des bewegten Sensors auf eine vorherigen Zeitpunkt,
    • 13 ein Ablaufdiagramm des erfindungsgemäßen Vorgehens,
    • 14 unterschiedliche Eindeutigkeitsbereiche,
    • 15 ein Erfassung von Objekten in unterschiedlichen Vielfachen der Eindeutigkeitsbereiche,
    • 16 eine erfindungsgemäße Festlegung eines Messbereichs,
    • 17 eine erfindungsgemäße Ausgabe gültiger Entfernungswerte.
  • Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
  • 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer Lichtlaufzeitkamera, wie sie beispielsweise aus der DE 197 04 496 bekannt ist.
  • Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem Lichtlaufzeitsensor 22.
  • Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel-Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.
  • Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Lichtlaufzeitsensor 22 über einen Modulator 30 gemeinsam mit einem bestimmten Modulationssignal Mo mit einer Basisphasenlage φ0 beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φ0 des Modulationssignals Mo der Lichtquelle 12 um definierte Phasenlagen φvar verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von φvar = 0°, 90°, 180°, 270° verwendet.
  • Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein intensitätsmoduliertes Signal Sp1 mit der ersten Phasenlage p1 bzw. p1 = φ0 + φvar aus. Dieses Signal Sp1 bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben Δφ(tL) mit einer zweiten Phasenlage p2 = φ0 + φvar + Δφ(tL) als Empfangssignal SP2 auf den Lichtlaufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal Mo mit dem empfangenen Signal Sp2 gemischt, wobei aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.
  • Zur Verbesserung der Messgenauigkeit und/oder zur Erweiterung des Eindeutigkeitsbereichs ist es vorteilhaft, die Lichtlaufzeitmessungen mit unterschiedlichen Modulationsfrequenzen durchzuführen. Zu diesem Zweck ist der Modulator 30 mit einem Modulationssteuergerät 38 verbunden, das vorzugsweise innerhalb eines vorgegebenen Frequenzspektrums Modulationsfrequenzen vorgeben kann.
  • Der Modulator 30 könnte beispielsweise als Frequenzsynthesizer ausgebildet sein, der über das Modulationssteuergerät 38 für die jeweilige Messaufgabe angesteuert wird. Auch ist ein Umschalten zwischen Quarzoszillatoren mit festen Frequenzen denkbar.
  • Ferner ist die Empfangseinheit 20 mit einer Auswerteeinheit 27 verbunden. Die Auswerteeinheit 27 kann gegebenenfalls auch Bestandteil der Empfangseinheit 20 und insbesondere auch Teil des Lichtlaufzeitsensors 22 sein. Aufgabe der Auswerteeinheit 27 ist es, anhand der empfangenen Signale in Relation zur Modulationsfrequenz Phasenverschiebungen zu ermitteln und/oder auszuwerten. Die Mischung der empfangen Lichtstrahlen mit der Modulationsfrequenz erfolgt vorzugsweise im Lichtlaufzeitsensor 22 bzw. PMD-Sensor. Ferner kann das Modulationssteuergerät 38 auch Bestandteil der Auswerteeinheit 27 sein. Insbesondere kann es auch vorgesehen sein, dass die Auswerteeinheit 27 die Funktion des Modulationssteuergeräts 38 vollständig oder teilweise übernimmt.
  • Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden. Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.
  • Das Grundprinzip der Phasenmessung ist schematisch in 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals M0 mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal SP2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(tL) auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals Mo in einem ersten Akkumulationsgate Ga und in einer um 180° verschobenen Phasenlage M0 + 180° in einem zweiten Akkumulationsgate Gb. Aus dem Verhältnis der im ersten und zweiten Gate Ga, Gb gesammelten Ladungen qa, qb lässt sich die Phasenverschiebung Δφ(tL) und somit eine Entfernung d des Objekts bestimmen.
  • 3a und 3b zeigen Verläufe der Ladungsdifferenz Δq = qa - qb / (qa + qb) in Abhängigkeit der Phasenverschiebung Δφ(tL) des empfangenen Lichtsignals Sp2 mit unterschiedlichen Phasenlagen. Die 3a zeigt einen Verlauf für eine unverschobene Modulationsphase Mo mit einer Phasenlage φvar = 0°.
  • Bei einem Auftreffen des Signals Sp2 ohne Phasenverschiebung also Δφ(tL) = 0°, beispielsweise, wenn das Sendesignal Sp1 direkt auf den Sensor gelenkt wird, sind die Phasen der Modulation M0 und vom empfangenen Signal Sp2 identisch, so dass alle erzeugten Ladungsträger phasensynchron am ersten Gate Ga erfasst werden und somit ein maximales Differenzsignal mit Δq = 1 anliegt.
  • Mit zunehmender Phasenverschiebung nimmt die Ladung am ersten Akkumulationsgate Ga ab und am zweiten Akkumulationsgate Gb zu. Bei einer Phasenverschiebung von Δφ(tL) = 90° sind die Ladungsträger qa, qb an beiden Gates Ga, Gb gleich verteilt und die Differenz somit null und nach 180° Phasenverschiebung „-1“. Mit weiter zunehmender Phasenverschiebung nimmt die Ladung am ersten Gate Ga wieder zu, so dass im Ergebnis die Ladungsdifferenz wieder ansteigt, um dann bei 360° bzw. 0° wieder ein Maximum zu erreichen.
  • Mathematisch handelt es sich hierbei um eine Korrelationsfunktion des empfangenen Signals Sp2 mit dem modulierenden Signal M0. q ( τ ) = 0 τ S p 2 ( t τ ) M 0 ( t ) d t
    Figure DE102020127332A1_0005
  • Bei einer Modulation mit einem Rechtecksignal ergibt sich wie bereits dargestellt als Korrelationsfunktion eine Dreiecksfunktion. Bei einer Modulation mit beispielsweise einem Sinussignal wäre das Ergebnis eine Kosinusfunktion.
  • Wie 3a zeigt, ist eine Messung der Phase mit einer Phasenlage nur bis zu einer Phasenverschiebung Δφ(tL) ≤ 180° eindeutig.
  • Zur maximalen Erfassung der Phasenverschiebung ist beispielsweise das IQ(Inphase-Quadratur) Verfahren bekannt, bei dem zwei Messungen mit um 90° verschobenen Phasenlagen durchgeführt werden, also beispielsweise mit der Phasenlage φvar = 0° und φvar = 90°. Das Ergebnis einer Messung mit der Phasenlage φvar = 90° ist in 3b dargestellt.
  • Die Beziehung dieser beiden Kurven lässt sich in bekannter Art und Weise beispielsweise für sinusförmige Kurvenverläufe in einem IQ-Diagramm gem. 4 darstellen. In erster Näherung ist diese Darstellung ohne weiteres auch für die dargestellten Dreiecksfunktionen anwendbar.
  • Der Phasenwinkel lässt sich dann in bekannter Weise über eine arctan-Funktion bestimmen: φ = arctan Δ q ( 90 ° ) Δ q ( 0 ° )
    Figure DE102020127332A1_0006
  • Um beispielsweise Asymmetrie des Sensors zu kompensieren, können zusätzliche um 180° verschobene Phasenmessungen durchgeführt werden, so dass sich im Ergebnis der Phasenwinkel wie folgt bestimmen lässt. φ = arctan Δ q ( 90 ° ) Δ q ( 270 ° ) Δ ( 0 ° ) Δ q ( 180 ° )
    Figure DE102020127332A1_0007
  • Aus der in 2 dargestellten laufzeitbedingten Phasenverschiebung Δφ(tL) lassen sich für Objektabstände d, die kleiner sind als die halbe Wellenlänge λ der Modulationsfrequenz
    d ≤ λ/2 in bekannter Weise ein Abstand bestimmen. d = Δ φ ( t L ) λ 2 π 1 2
    Figure DE102020127332A1_0008
  • Für Entfernungen d > λ/2 besteht in der Regel keine Möglichkeit die Phasenverschiebung absolut zu messen, so dass die ermittelte Phasenverschiebung nicht mehr eindeutig einem Entfernungswert zugeordnet werden kann.
  • 5 zeigt ein Beispiel, bei dem das Objekt 40 einen Abstand d vom Sender 10 von d = 2 λ + R 2
    Figure DE102020127332A1_0009
    aufweist, wobei selbstverständlich die bis zum Empfänger 20 zurückgelegt Wegstrecke doppelt so groß ist, nämlich D = 2d = 4λ + R
  • Zur Erhöhung des Eindeutigkeitsbereichs ist es, wie in 6 schematisch dargestellt, vorgesehen, mit mindestens zwei Modulationsfrequenzen respektive Modulationswellenlängen eine Objektabstand d zu bestimmen. Der Einfachheit halber ist in 6 die Gesamtstrecke D zwischen Sender 10 und Empfänger 20 dargestellt. Innerhalb des Eindeutigkeitsbereichs der beiden Wellenlängen λ1, λ2, der typischerweise durch das kleinste gemeinsame Vielfache der Wellenlängen λ1, λ2 aufgespannt wird, gilt folgende Distanzgleichung: D = 2 d = n 1 λ 1 + R 1 = n 2 λ 2 + R 2
    Figure DE102020127332A1_0010
    mit R i = D ( mod λ i ) = φ i ( f i , D ) λ i 2 π
    Figure DE102020127332A1_0011
    wobei für die von der Modulationsfrequenz und dem Objektabstand abhängige relative Phasenverschiebung φi(fi,D) gilt: φ i = D f i c 2 π ( mod 2 π ) = D λ i 2 π ( mod 2 π )
    Figure DE102020127332A1_0012
  • Die relative Phasenverschiebung φi(fi,D) ist somit ein Maß für das in der Entfernungsmessung verbleibende Reststück Ri. Für die Entfernungsbestimmung kann nun mit zwei für unterschiedliche Modulationsfrequenzen f1, f2 erfassten Phasenverschiebungen φ1/2(f1/2,D) eine Lösung für die oben dargestellte Distanzgleichung gefunden werden.
  • Ein möglicher Lösungsweg ist in 7 schematisch dargestellt. Die 7 zeigt zwei relative Phasenverschiebung φ1/2(f1/2,D) in Abhängigkeit des doppelten Objektabstandes 2d = Gesamtweglänge D für zwei unterschiedliche Frequenzen f1, f2. Mit durchgezogener Linie ist die Phasenverschiebung φ1 für f1 = 7,5 MHz entsprechend einer Wellenlänge λ1 = 40 m und mit gestrichelter Line für f2 = 5 MHz entsprechend einer Wellenlänge λ2 = 60 m dargestellt. Der Eindeutigkeitsbereich EB12 für die beiden Frequenzen f1, f2 ergibt sich in bekannter Weise aus dem kleinsten gemeinsamen Vielfachen der beiden Wellenlänge λ1, λ2, also hier 120 m.
  • Für jeden Entfernungswert bzw. jeder Gesamtweglänge D innerhalb des gemeinsamen Eindeutigkeitsbereich EB12 gibt es genau ein Phasendifferenzpaar (φ1, φ2). Für den beispielhaften Entfernungswert D von 23 m, also einem Objektabstand d von 11,5 m, ergibt sich ein Phasendifferenzpaar von ca. (1,2 | 0,8).
  • In einem möglichen Anwendungsfall könnte es beispielsweise vorgesehen sein, eine geeignete Anzahl von Phasendifferenzpaaren mit dem ihnen zugeordneten Entfernungswert D oder Objektabstand d in einer Wertetabelle abzulegen. Bei einer Entfernungsmessung kann dann beispielsweise ermittelt werden, welches tabellierte Phasendifferenzpaar mit einem entsprechend zugeordnetem Entfernungswert dem ermittelten Phasendifferenzpaar am nächsten kommt. Alternativ kann der Objektabstand auch jedes Mal berechnet werden.
  • 8 entspricht der Darstellung gemäß 7 mit dem Unterschied, dass auf der y-Achse die Länge des jeweiligen Reststücks aufgetragen ist mit: R i = D ( mod λ i ) = φ i ( f i , D ) λ i 2 π
    Figure DE102020127332A1_0013
  • Im dargestellten Beispiel sind bis zu einer Gesamtweglänge D, die der kleinsten Wellenlänge entspricht, also hier 40 m, beide Reststücke gleich lang. Für eine Gesamtstrecke D von beispielsweise 70 m hingegen sind die Reststücke unterschiedlich groß.
  • Der in den 7 und 8 dargestellte Zusammenhang von Phase und Abstand lässt sich vorteilhaft in einem so genannten Modulodiagramm gemäß 9 dargestellt. Auf der x- und y-Achse sind die Phasenwerte φ1 und φ2 für eine erste und zweite Modulationsfrequenz und auf der sekundären x- und y-Achse die den Phasenwerten entsprechenden Distanzwerte bzw. Reststückwerte d1, d2 dargestellt. Wie bereits erwähnt, existiert für einen Entfernwert innerhalb des Eindeutigkeitsbereichs nur ein einziges Phasenwertepaar.
  • 9 zeigt ein Modulodiagramm für die Frequenzen f1 = 7,5 MHz entsprechend einer Wellenlänge λ1 = 40 m und f2 = 5 MHz entsprechend einer Wellenlänge λ2 = 60 m wie bereits in 7 und 8 dargestellt. Die Kurve beginnt mit dem Phasendifferenzpaar (0 | 0) für D = 0. Erreicht die Gesamtweglänge des vom Objekt reflektierten Licht die Wellenlänge λ1 = 40 m der ersten Modulationsfrequenz so erreicht auch der Phasenwert seinen maximalen Wert, nämlich 2π mit dem Phasenwertepaar (2 | 1,33). Mit größer werdender Entfernung springt die Kurve immer an den Punkten, an denen eine der beiden Phasenwerte einen 2π -Wert durchläuft, bis ein Eindeutigkeitsbereich EB von 120 m erreicht ist.
  • Eine Entfernung kann beispielsweise dadurch bestimmt werden, indem ein ermitteltes Phasenwertepaar einem Entfernungspunkt der Distanzkurve zugeordnet wird. Phasenwertepaare liegen nur idealerweise auf der Distanzkurve und weichen typischerweise beispielsweise aufgrund von Rauschen davon ab. Im in 9 dargestellten Fall ist exemplarisch ein gemessenes Phasenwertepaar mit (1,05 | 0,85) eingezeichnet. Dieses Phasenwertepaar liegt nicht auf der Distanzkurve und ist nun einem Entfernungspunkt auf einer der beiden Kurvenabschnitte zuzuordnen. Der Abstand dAB zwischen den Kurvenabschnitten ist bekannt. Für die Zuordnung ist es daher ausreichend den Abstand dA, dB zu einer der beiden Kurvenabschnitte zu bestimmen. Der Objektabstand bestimmt sich alsdann aus dem am nächsten liegenden Entfernungspunkt. Im dargestellten Fall kann dem Phasenwertepaar ein Entfernungswert D von 23 m, also einem tatsächlichen Objektabstand d von 11,5 m zugeordnet werden.
  • Liegt hingegen ein erfasstes Phasenwertepaar beispielsweise in der Mitte der benachbarten Entfernungsgerade bzw. Kurvenabschnitte könnte statt der tatsächlichen Entfernung von 23 m dem Phasenwertepaar eine Entfernung von 93 m zugeordnet werden.
  • Inkorrekte Entfernungswerte entstehen jedoch nicht nur durch derartige Fehlzuordnungen, sondern auch durch Überreichweiten von Objekten außerhalb des Eindeutigkeitsbereichs. Im dargestellten Fall erstreckt sich der Eindeutigkeitsbereich EB bis 120 m Gesamtdistanz D, also einem maximalen Objektabstand d von 60 m. Typischerweise ist ein Lichtlaufzeitkamerasystem derart ausgelegt, dass Objekte außerhalb des Eindeutigkeitsbereichs nur noch ein geringes Signal liefern und in der Auswertung unberücksichtigt bleiben. Objekte mit einer hohen Reflektivität können jedoch eine ausreichend hohe Signalstärke am Sensor erzeugen und werden als Objekt erkannt.
  • Steht ein solches Objekt beispielsweise in einer tatsächlichen Entfernung von d = 71, 5, also einer Gesamtlaufstrecke von 143 m, wird ein solches Objekt aufgrund des auf 120 m begrenzten Eindeutigkeitsbereich mit einer Gesamtdistanz D von 23 m erfasst. Bei einer Überreichweite mit der Gesamtstrecke von 213 m ergibt sich ein Distanzwert D von 93 m.
  • Um Überreichweiten und Fehlzuordnungen zu erkennen ist es erfindungsgemäße vorgesehen, die Entfernungsmessung mit weiteren unterschiedlichen Modulationsfrequenzen und entsprechend unterschiedlichen Eindeutigkeitsbereichen zu wiederholen und Entfernungswerte nur dann zuzulassen, wenn vorzugsweise alle oder eine vorbestimmte Anzahl von Entfernungsmessungen innerhalb tolerierter Grenzen zum selben Ergebnis führen.
  • Ein Zwei- oder Mehrfrequenzverfahren funktioniert vorzugsweise bei statischen Anordnungen oder/und bei Anordnungen, die sich mit geringer Geschwindigkeit bewegen. Bei bewegten Objekten oder bewegter Kamera sind ungültige Distanzwerte zu erwarten, da die Distanzen eines Pixels durch die Bewegung nicht mehr zueinander passen.
  • Kernidee der Erfindung ist es, die Eigenbewegung der Lichtlaufzeitkamera zu erfassen und im Mehrfrequenzverfahren zu kompensieren.
  • Die Eigenbewegung der Kamera kann auf verschiedene Weise gemessen werden, beispielsweise: mit Hilfe eines Encoders an den Rädern, der die Bewegung im zweidimensionalen Raum erfasst oder durch Integrieren der Daten eines mehrachsigen gyroskopischen Sensors. Auch ist es denkbar so genannte SLAM-Verfahren (Simultaneous Localization and Mapping) für die Bestimmung der Eigenbewegung heranzuziehen.
  • Des Weiteren ist es hilfreich das verwendete Optiksystem in einem Optikmodell zu hinterlegen, indem beispielsweise Brennweite, Verzeichnungen etc. berücksichtigt sind. Das verwendete Optikmodell sollte sowohl die Projektion von 3D Punkten auf Pixel der Sensormatrix als auch die Rückprojektion von Pixeln zu 3D Richtungen unterstützen.
  • Weiterhin ist das Kamerasystem in Kombination mit dem Transportsystem zu kalibrieren. Diese extrinsische Kalibrierung sollte dann zum Koordinatensystem des Ego- bzw. Fahrzeugsystems passen.
  • In den 10 bis 12 sind schematisch die Grundüberlegung der Erfindung gezeigt. Zu einem ersten Zeitpunkt t1 befindet sich das Fahrzeug, wie in 10 gezeigt, an einem ersten Standort und der Sensor detektiert mit einem Pixel Pix_7,2 ein Objekt. Entsprechend der Optik bzw. dem Sensor vorgeschaltetem Optiksystem sieht jedes Pixel des Sensors einen anderen Raumbereich. Das Pixel Pix_5,3 sieht beispielsweise in eine andere Raumrichtung als das Pixel Pix_7,2 und erfasst das Objekt nicht.
  • Für alle Pixel Pixij des Sensors werden Distanzdaten dij ermittelt, so dass sich hieraus ein komplettes Tiefenbild der erfassten Umgebung bzw. eine Distanzmatrix D erstellen lässt.
  • Als Rohdaten liegen in bekannter Weise zunächst Ladungsdifferenzen vor aus denen wie bereits beschrieben Phasenverschiebungen und ausgehend von der verwendeten Modulationsfrequenzen f ein Roh-Entfernungswert m bestimmt wird. Aufgrund der Periodizität des Eindeutigkeitsbereichs EB ergibt sich ein tatsächlicher Distanzwert d aus: d=m+k * EB
    Figure DE102020127332A1_0014
  • So bestimmt sich für jedes Pixel Pixij der Distanzwert dij(k) in Abhängigkeit von k.
  • Ausgehend von einem bekannten Optikmodell der Optik bzw. des Optiksystems ist bekannt, in welche Raumrichtung jedes Pixel orientiert ist, so dass zusammen mit der ermittelten Distanz dij(k), für jedes Pixel die Distanzen der erfassten Umgebung in ein kartesisches Koordinatensystem des Fahrzeugs umgerechnet werden können. So lassen sich Distanzwerte dij(k) in Koordinantenwerte kij(k) = (x,y,z) bzw. eine Distanzmatrix D(k) in eine Koordinatenmatrix K(k) überführen.
  • Das in 10 vom Pixel Pix7,2 erfasste Objekt befindet sich zum ersten Zeitpunkt t1 mit dem Distanzwert d7,2(t1,k) somit am Ort k7,2(t1,k) = (x1, y1, z1)7,2 im Ego- / Koordinatensystem des Fahrzeugs.
  • Wird das Fahrzeug, wie in 11 gezeigt, bewegt verschiebt sich auch der Ort des Objekts in Relation zum Fahrzeug und somit auch in Relation zum Sensor bzw. dessen Pixel, so dass zu einem zweiten Zeitpunkt t2 das Objekt mit einer Distanz d5,3(t2,k) von einem anderen Pixel Pix5,3 erfasst wird.
  • Wie bereits beschrieben lassen sich diese Distanzen d(tn)ij für alle Pixel Pixij dann auch für alle neuen Zeitpunkte tn in eine Koordinatenmatrix K überführen. D = ( t n - 1 , k ) = ( d ( t n - 1 , k ) 11 d ( t n , k ) u v ) ( k ( t n - 1 , k ) 11 k ( t n - 1 , k ) u v ) = K ( t n , k )
    Figure DE102020127332A1_0015
  • Erfindungsgemäß ist es vorgesehen, in aufeinanderfolgenden Erfassungszeitpunkten / Erfassungsframes t1, t2 unterschiedliche Modulationsfrequenzen fs zu verwenden, d.h. die Distanzen dij(t1 ,f1 ,k) zum ersten Zeitpunkt t1 wurde mit einer ersten Modulationsfrequenz f1 ermittelt und die Distanzen dij(t2,f2,k) zum zweiten Zeitpunkt t2 mit einer zweiten Modulationsfrequenz f2. D ( t n , f s , k ) = ( d ( t n , k ) 11 d ( t n , f s ) u v ) ( k ( t n , f s , k ) 11 k ( t n , f s , k ) u v ) = K ( t n , f s k )
    Figure DE102020127332A1_0016
  • Erfindungsgemäß ist es vorgesehen, wenigstens zwei Modulationsfrequenzen zu verwenden, die zufällig oder in einem vorgegebenen Muster für einen jeweiligen Zeitpunkt ausgewählt werden. Bevorzugt wird ein Satz mit einer maximalen Anzahl smax an Modulationsfrequenzen fs vorgegeben mit denen die Messungen dann erfolgen.
  • Zur Verifizierung der zum zweiten Zeitpunkt t2 mit einer zweiten Frequenz f2 erfassten Distanz dij(t2, f2,k) ist es erfindungsgemäß vorgesehen, die Distanzen dij(t2,f2), die zum zweiten Zeitpunkt t2 ermittelt wurden, um die Eigenbewegung TΔt des Fahrzeugs, die zwischen dem ersten und zweiten Zeitpunkt Δt = t2 - t1 erfolgt ist, zu korrigieren und auf Distanzen d'pq(t1 ,f2,k) des vorhergehenden Zeitpunkts, also hier auf den ersten Zeitpunkt t1, zurückzurechnen.
  • Dieses Vorgehen ist beispielhaft in 12 gezeigt. Aus der bekannten Bewegung TΔt des Fahrzeugs, die sich im Allgemeinen aus einer Translationskomponente x und einer Rotationskomponente rot zusammensetzt, kann der Distanzwert dij(t2,f2,k) bzw. der Koordinatenwert kij(t2,f2,k) des Objekts auf den vorhergehenden Zeitpunkt tn-1 zurückgerechnet werden. Bleibt das Objekt unbewegt und ist die Bewegung TΔt des Fahrzeugs exakt bekannt, wären die zurückgerechnete Distanz d'pq(t1 ,f2,k) grundsätzlich identisch mit der zum Zeitpunkt t1 tatsächlich gemessenen Objektdistanz dij(t1 ,f1 ,k), vorausgesetzt die passenden k-Werte sind gefunden.
  • Die Schritte noch einmal zusammengefasst:
    1. a) dij(t2,f2,k) →(x2,f2,k y2,f2,k, z2,f2,k)ij = kij(t2,f2,k)
      • - Überführung der Distanzwerte in Koordinatenwerte
    2. b) kij(t2,f2,k) -TΔt → k'pq(t1,f2,k)
      • - Rückrechnung der Koordinatenwerte auf Koordinatenwerte zum vorherigen Zeitpunkt
    3. c) k'pq(t1,f2,k) → d'pq(t1,f2,k)
      • - Transformation der rückgerechneten Koordinatenwerte in Distanzwerte
    4. d) Vergleich der Distanzwerte
  • Die Schritte werden vorzugsweise für alle Pixel des Sensors ausgeführt.
  • Es sei noch einmal bemerkt, dass aufgrund der Bewegung TΔtdes Fahrzeugs, sich nicht nur die Distanzen an den Pixeln verändern, sondern sich auch die Lage der Objekte in Relation zum Sensor bzw. den Pixeln ändert, so dass in den nachfolgenden Zeitpunkten / Erfassungsframes tn+1 in der Regel das Objekt von verschiedenen Pixel erfasst wird. P ij ( tn ) P pq ( tn-1 ) m i t ij pq
    Figure DE102020127332A1_0017
  • Es sei auch bemerkt, dass es bei einer Rückrechnung der Koordinatenmatrix auf einen vorherigen Zeitpunkt neben einem evtl. leicht veränderten Distanzwert auch der Aufpunkt auf dem Sensor ein anderer sein kann, so dass ein Distanzwert nicht auf das Pixel zurückgerechnet wird, das zuvor das Objekt erfasst hat, sondern ggf. auf einem Nachbarpixel. Solche Grenzfälle können ggf. mit einem so genannten Neighbourhood Filtering aufgefangen werden.
  • In den Fällen, in denen die rückgerechneten Pixel Pixpq außerhalb des sichtbaren Bereichs der Kamera bzw. des Sensors zum Zeitpunkt t1 liegen, kann keine Validierung des Distanzwerts dij(t2,f2,k) erfolgen.
  • Zur Verifizierung der ermittelten Distanzwerte sind, wie in 13 gezeigt, erfindungsgemäß folgende Verfahrensschritte vorgesehen,
    1. a) Ermittlung von Rohdistanzwerten mij(tn,fs) zu einem ersten Zeitpunkt tn und mit einer ersten Modulationsfrequenz fs,
    2. b) Überführung der Rohdistanzwerte mij(tn,fs) in Distanzwerte dij(tn,fs,k) unter der Vorgabe dij(tn,fs,k) = mij(fn,fs) + k*EB(fs)
    3. c) Überführung der Distanzwerte dij(fn,fs,k) in Koordinatenwerte kij(fn,fs,k)
    4. d) Rückrechnung der Koordinatenwerte kij(tn,fs,k) in Koordinatenwerte k'ij(tn-1,fs,k) auf einen vorherigen Zeitpunkt tn-1 unter Berücksichtigung der zwischen den beide Zeitpunkten t1, t2 stattgefundenen Bewegung TΔx des Fahrzeugs,
    5. e) Überführung der rückgerechneten Koordinatenwerte k'ij(tn-1,fs,k) in rückgerechnete Distanzwerte d'pq(tn-1,fs,k). Hierbei ist zu berücksichtigen, dass im Allgemeinen die projizierten Pixel-Koordinaten pq für das Bild zum Zeitpunkt t0 keine ganzen Zahlen sind. In einer möglichen Ausgestaltung der Erfindung können die projizierten pq-Koordinaten mit einem Nearest-Neighbor Verfahren auf gültige Pixel-Koordinaten umgerechnet werden. Ferner ist es vorteilhaft, wenn die neue Koordinaten pq durch die Projektion von k' auch ein Optikmodell und eine extrinsischer Kalibrierung berücksichtigen.
    6. f) Grenzwert-Vergleich des Distanzwerts d'pq(tn-1,fs,k) aus dem Schritt e) mit einem entsprechenden Rohdistanzwert mpq(tn-1,fs-1) desselben Pixels Pixpq. Im allgemeinsten Fall wird für die Grenzwertbetrachtung folgender Formalismus herangezogen: ( | d ' p q ( t n 1 , f s , k ) m p q ( t n 1 , f s 1 ) + E B ( t n 1 , f s 1 ) 2 | m o d E B ( t n 1 , f s 1 ) ) + E B ( t n 1 , f s 1 ) 2 < G W
      Figure DE102020127332A1_0018
      oder vereinfacht, wenn das Modulo für zirkuläre Frequenzen beachtet wird: | d ' p q ( t n 1 , f s , k ) m p q ( t n 1 , f s 1 ) | m o d E B ( t n 1 , f s 1 ) < G W
      Figure DE102020127332A1_0019
      hierbei werden die k-Werte solange durchlaufen bis ein maximal vorgesehener Messbereich d_max erreicht oder überschritten ist mit der Vorgabe kmax* EB(tn-1,fs-1) >= dmax = maximaler vorgegebener Messbereich MB.
    7. g) Wenn ein k-Wert existiert, bei dem der Grenzwert GW unterschritten wird, wird ein Distanzwert dij(tn,fs,k) mit diesem k-Wert berechnet und ausgeben, wird ein solcher k-Wert nicht gefunden wird der Distanzwert für den jeweiligen Pixel als ungültig ausgewiesen.
    8. h) Die vorgenannten Schritte werden für einen nächsten Zeitpunkt tn+1 mit einer nächsten Frequenz fs+1 wiederholt.
  • Hierbei wird in einer äußeren Schleife über alle k iteriert und in einer inneren Schleife über alle Pixel. Sobald für einen Pixel eine Übereinstimmung gefunden ist, wird Schritt g) diese Distanz dij festgehalten und kann ausgegeben werden.
  • Wie in 14 kurz skizziert ergeben sich in bekannter Weise für unterschiedliche Frequenzen f1, f2, ... unterschiedliche Eindeutigkeitsbereiche E1, E2, ...
  • Dies führt ebenso in bekannter Weise, wie in 15 gezeigt, zu Fehlinterpretationen, wenn sich ein Objekt, hier als Kreis dargestellt, in einem Vielfachen Abstand des Eindeutigkeitsbereichs befindet
  • Während das mit einer Raute dargestellte Objekt, in allen drei Entfernungsmessungen, die mit unterschiedlichen Frequenzen f durchgeführt werden, immer mit dem gleichen Rohdistanzwert m gemessen wird, variieren die Rohdistanzwerte für Objekte außerhalb der Eindeutigkeitsbereiche.
  • Die Distanz dieser Objekte kann dann in einfacher Art und Weise wie im oben gezeigten Ablauf mit dem Modulo-Grenzwertvergleich gemäß Schritt f) ermittelt werden.
  • Dieser kann beispielshaft wie folgt erfolgen. Erstreckt sich beispielsweise ein erster Eindeutigkeitsbereich EB1 um 5 m und ein zweiter Eindeutigkeitsbereich EB2 um 7 m und das Objekt befindet sich zum Zeitpunkt t1 in einem Abstand von 17 m, so wird als Messwert m1(t1,f1) zum ersten Zeitpunkt 2 m = 17(mod5) gemessen. Im Maßstab des zweiten Eindeutigkeitsbereichs EB2 wären 3 m = 17(mod7) zu erwarten.
  • Wird dann beispielsweise zu einem zweiten Zeitpunkt t2 ein Messwert m2(t2,f2) = 4 m gemessen und ergibt sich beim Zurückrechnen auf den ersten Zeitpunkt t1 ein Distanzwert d' von 3,2 m + k*EB2 so ergeben sich im o.g. Modulo-Vergleich folgende Werte (der Modulo Vergleich verwendet hierbei die zirkuläre Distanz, siehe k=1):
    k=0 → |(3,2 + 0*7) - 2 |(mod 5) = 1,2(mod 5) = 1,2
    k=1 → |(3,2 + 1*7) - 2 |(mod 5) = 8,2(mod 5) = 3,2 bzw. 1,8 bei zirkularer
    Betrachtung
    k=2 → |(3,2 + 2*7) - 2 |(mod 5) = 15,2(mod 5) = 0,2
    k=3 → |(3,2 + 3*7) - 2 |(mod 5) = 22,2(mod 5) = 2,2
  • In diesem Beispiel könnte der Messbereich MB mit dmax auf 20 m festgelegt sein, so dass die k-Werte maximal bis zum Wert 3 durchlaufen werden. Ist der Grenzwert GW beispielsweise auf 0,4 m festgelegt, wäre die Entfernung d'ij mit k=2 plausibel.
  • Zum Zeitpunkt t2 könnte dann der Distanzwert dij(t2,f2,k) = 4 m + 2*7m = 18 m als valide ausgegeben werden.
  • Die folgenden Beispiele nehmen die Verwendung von 3 unterschiedlichen Frequenzen an. Ausprägungen mit einer anderen Anzahl von Frequenzen sind ebenfalls möglich.
  • Weiterhin kann die Beobachtung von ausgedehnten Ebenen, die nicht parallel zum Bildsensor sind (z.B. Decke, Boden, Wände), bei Verwendung von Frequenzen, die zeitlich monoton absteigend oder aufsteigend sind, mit bestimmten Ego-Daten ebenfalls zu fälschlicherweise konsistenten Messungen führen.
  • Um diese Fälle auch absichern zu können und die Messung zu verifizieren ist es, wie in 16 dargestellt, erfindungsgemäß vorgesehen, eine vierte Messung vorzunehmen, die entweder die erste oder die zweite Frequenz verwendet. Im dargestellten Beispiel wurde die zweite Frequenz f2 verwendet. Damit werden zeitlich monoton ab- oder aufsteigende Frequenz-Reihenfolgen vermieden.
  • Wird durch die vierte Messung das Entfernungsergebnis der vorhergehenden Messungen bestätigt, liegt ein valider Entfernungswert vor.
  • Die Validierung mit mehr als zwei Frequenzen kann durch mehrfache Anwendung des oben beschriebenen Verfahrens erfolgen, bei dem der aktuelle Frame mit den 3 vorherigen Frames verglichen wird und Pixel nur dann als gültig ausgegeben werden, wenn alle Vergleiche mit den vorherigen Frames gültig sind.
  • Um Rechenaufwand zu sparen, ist es aber auch möglich, einen Zähler C_ij(t_n) für jedes Pixel einzuführen, der die Anzahl der gültigen Vergleiche zählt. Bei einem gültigen Vergleich von Pixel P_ij(t_n) mit Pixel P_pq(t_n-1) wird dann der Zähler des aktuellen Frames auf den um Eins inkrementierten Wert des Vorgänger-Frames gesetzt: C i j ( t n ) = C p q ( t n 1 ) + 1
    Figure DE102020127332A1_0020
  • Diese Zähler zählen somit die Länge des „tracks“ in Frames minus eins.
  • Ein Pixel ist dann gültig, wenn die Anzahl der gültigen Vergleiche mindestens die Anzahl der verwendeten Frequenzen ist. In unserem Beispiel mit einem Satz aus drei Frequenzen fs mit smax = 3 müsste der Zähler mindestens 3 sein, was einer Track-Länge von 4 Frames entspricht.
  • 17 zeigt dieses Vorgehen schematisch für den unbewegten Fall. Der erste Erfassungsframe tn kann nicht mit einem Vorgänger-Frame verglichen werden, daher wird der Zähler cij auf 0 gesetzt. Zwar kann ein Rohentfernungswert m bestimmt werden aber aufgrund des fehlenden Vergleichs zum Vorgänger-Frame jedoch kein Entfernungswert dij.
  • Die nachfolgenden Erfassungsframes tn+1, tn+2 und tn+3 liefern valide Distanzwerte bei den Vergleichen mit ihren jeweiligen Vorgänger-Frames tn, tn+1 und tn+2. Vor dem vierten Zeitframe tn+3 wurden somit bereits zwei valide Distanzwerte ermittelt, so dass der Zähler aus dem vorherigen Frame auf 2 gesetzt ist. Somit hat der Zähler die Anzahl der Frequenzen minus 1 erreicht.
  • Im vierten Erfassungsframe tn+3 wird nun mit einer Frequenz fs aus dem Frequenzsatz (f1, f2, f3) gemessen, die sich von der vorherigen Frequenz fs+2 unterscheidet. Wird nun in diesem vierten Erfassungsframe tn+3 auch ein valider Distanzwert d(tn+3) gefunden wird der aktuelle Zähler auf 3 erhöht und der aktuelle valide Distanzwert als gültiger Distanzwert d_aus ausgegeben.
  • Im nachfolgenden fünften Erfassungsframe n+4 liegt auch ein valider Distanzwert vor und c > smax so dass der valide Distanzwert ausgegeben werden kann.
  • Im nachfolgenden sechsten Erfassungsframe n+5 liegt kein gültiger Distanzwert vor und der Zähler wird auf Null gesetzt und es wird kein gültiger Distanzwert ausgegeben.
  • In den weiteren nachfolgenden Erfassungsframes n+ ..., liegen dann wieder valide Distanzwerte vor, so dass nach drei validen Distanzwerten wieder ein gültiger Distanzwert ausgegeben werden kann.
  • Das Verfahren kann grundsätzlich auch mit einer kodierten oder pseudo noise Modulation durchgeführt werden. Hier eignen sich insbesondere so genannte Maximalfolgen.
  • Bei der Verwendung einer solchen Modulation reicht es in der Regel aus, zwei unterschiedliche Frequenzen zu verwenden. Eine Iteration über die Eindeutigkeitsbereiche kann dann ggf. wegfallen. Der Messbereich wäre dann die Schnittmenge der beiden Pseudo-Noise-Messbereiche.
  • Ferner kann es vorgesehen sein, dass bei einer Aufintegration über einen gyroskopischen Sensor, die Geschwindigkeit des Fahrzeugs über die Time of flight Daten zu stabilisieren.
  • Im Weiteren sei angemerkt, dass für das Mapping von k' nach d' ein einzelner Pixel betrachtet wird mit k'ij = x', y', z' unter Berücksichtigung eines Optikmodell OM und ggf. einer extrinsischen Kalibrierung. So ergibt sich im Resultat OM(x',y',z') ein Pixelkoordinate r,c. r,c sind hierbei row, column floating point Koordinaten auf dem Sensor.
  • Für die Auswertung können ggf. folgende Methoden herangezogen werden:
    1. a) Nearest neighbor Mapping. Der Vergleich findet mit den (r,c) am nächsten liegenden integer Koordinaten statt.
    2. b) Laterale Relaxation. Der Vergleich findet mit einer lateralen Umgebung von (r,c) statt und ist gültig wenn mindestens ein Pixel in der Umgebung das Kriterium erfüllt. Wenn mehrere Pixel das Grenzwert-Kriterium erfüllen, wird das Pixel herangezogen, dessen Track-Counter den höchsten Wert zeigt und der Track-Counter dieses Pixels erhöht.
    3. c) Bilineare Interpolation. Der Vergleich findet mit der Bilinearen Interpolation um (r,c) statt.
  • Des Weiteren wäre es denkbar, die transformierten Distanzen zur zeitlichen Filterung (z.B. mit einem rekursiven Filter) zu benutzen. Dazu müssten die Distanzen zeitlich wieder in die Zukunft transformiert werden.
  • Bezugszeichenliste
  • 10
    Beleuchtungsmodul
    12
    Beleuchtung
    22
    Lichtlaufzeitsensor
    27
    Auswerteeinheit
    30
    Modulator
    35
    Phasenschieber, Beleuchtungsphasenschieber
    38
    Modulationssteuergerät
    Δφ(tL)
    laufzeitbedingte Phasenverschiebung
    φvar
    Phasenlage
    φ0
    Basisphase
    Mo
    Modulationssignal
    p1
    erste Phase
    p2
    zweite Phase
    Sp1
    Sendesignal mit erster Phase
    Sp2
    Empfangssignal mit zweiter Phase
    Ga, Gb
    Akkumulationsgates
    Ua, Ub
    Spannungen am Modulationsgate
    f1, f2, f3
    erste, zweite, dritte Modulationsfrequenz
    λ
    Wellenlänge
    PMi
    Phasenmesszyklus
    Mi
    Distanzmesszyklus
    D
    Gesamtweglänge
    d
    Objektdistanz
    dij
    ermittelte Objektdistanz
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19704496 [0002, 0003, 0019]

Claims (9)

  1. Verfahren zum Betreiben eines Lichtlaufzeitkamerasystems mit einem Lichtlaufzeitsensor bestehend aus einem Array von Lichtlaufzeitpixeln an einem Fahrzeug, bei dem eine Bewegung des Fahrzeugs erfasst und für Berechnungen zur Verfügung gestellt wird, mit den Schritten: a) Ermittlung von Rohdistanzwerten (mij(tn,fs)) zu einem ersten Erfassungsframe (tn) und mit einer ersten Modulationsfrequenz (fs), b) Überführung der Rohdistanzwerte (mij(tn,fs)) in Distanzwerte (dij(tn,fs,k)) unter der Vorgabe d ij ( t n , f s , k ) = m ij ( t n , f s ) + k * EB ( f s )
    Figure DE102020127332A1_0021
    mit einem k-Wert als Zähler von 0 bis einem maximalen k-Wert und einem frequenzabhängigen Eindeutigkeitsbereich (EB), c) Rückrechnung der Distanzwerte (dij(tn,fs,k)) in Distanzwerte d'pq(tn-1,fs,k) eines vorhergehenden Erfassungsframes (tn-1) unter Berücksichtigung der zwischen den beide Erfassungsframes (t1, t2, Δx) stattgefundenen Bewegung (TΔx) des Fahrzeugs, d) Grenzwert-Vergleich des rückgerechneten Distanzwerts d'pq(tn-1,fs,k) mit einem entsprechenden Rohdistanzwert mpq(tn-1,fs-1) desselben Pixels Pixpq nach der Vorschrift: | d' pq ( t n-1 , f s , k ) m pq ( t n-1 , f s-1 ) | ( mod EB ( t n-1 , f s-1 ) ) < GW
    Figure DE102020127332A1_0022
    e) Ausgabe des im Schritt b) ermittelten Distanzwert dij(tn,fs,k) als valide, wenn ein k-Wert existiert, bei dem der Grenzwert GW unterschritten wird, unter Berücksichtigung des ermittelten k-Werts, f) Wiederholung der vorgenannten Schritte für einen nächsten Erfassungsframe (tn+1) mit einer nächsten Frequenz (fs+1).
  2. Verfahren nach Anspruch 1, bei dem die Rückrechnung gemäß Punkt c) mit folgende Schritten durchgeführt wird: c1) Überführung der Distanzwerte (dij(tn,fs,k)) in Koordinatenwerte (kij(tn,fs,k)) c2) Rückrechnung der Koordinatenwerte (kij(tn,fs,k)) in Koordinatenwerte (k'ij(tn-i,fs,k)) auf einen vorherigen Zeitpunkt (tn-1) unter Berücksichtigung der zwischen den beide Zeitpunkten (t1, t2, Δx) stattgefundenen Bewegung (TΔx) des Fahrzeugs, c3) Überführung der rückgerechneten Koordinatenwerte (k'ij(tn-1,fs,k)) in rückgerechnete Distanzwerte (d'pq(tn-1,fs,k)).
  3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in direkt aufeinanderfolgenden Erfassungsframes (tn, tn+1) unterschiedliche Modulationsfrequenzen (fn) verwendet werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Modulationsfrequenzen (fs) aus einem Satz von vorgegebenen Modulationsfrequenzen verwendet werden und der Satz eine vorgegebene maximale Anzahl (smax) an Modulationsfrequenzen aufweist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem für eine Ausgabe eines gültigen Entfernungswerts (dij) die Distanzen über eine Anzahl von Erfassungsframes (tn) ermittelt werden, die größer ist als die Anzahl (smax) der im Modulationsfrequenzsatz (fs) vorgegebenen Modulationsfrequenzen.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem ein inkrementeller Zähler (Cij) vorgesehen ist, der die Erfassungsframes mit validen Distanzwerten aufsummiert, wobei der Zähler (Cij) auf Null gesetzt wird sobald ein Erfassungsframe ein ungültigen Distanzwert aufweist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem ausgehend von einer Pixelkoordinate (pq), die sich aus dem rückgerechneten Distanzwert (d'pq) ergibt auch benachbarte Pixel dem Grenzwert-Vergleich gemäß Schritt d) des Anspruchs 1 unterzogen werden.
  8. Verfahren nach Anspruch 6 und 7, bei dem, wenn mehrere Pixel den Grenzwert unterschreiten, das Pixel herangezogen wird, dessen inkrementeller Zähler (Cuv) den höchsten Wert zeigt und der inkrementelle Zähler (Cuv) dieses Pixels wird um Eins erhöht.
  9. Lichtlaufzeitkamerasystem (1) mit einem Modulator (30), der mit einer Beleuchtung (10) und einem Empfänger (20) des Lichtlaufzeitkamerasystems (1) verbunden ist, ein Modulationssteuergerät (38) mit dem Modulator (30) verbunden ist und derart ausgestaltet ist, dass der Modulator (30) mit mindestens zwei Modulationsfrequenzen (f1, f2, f3) betreibbar ist, dadurch gekennzeichnet, dass das Lichtlaufzeitkamerasystem (1) zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche ausgebildet ist.
DE102020127332.0A 2020-10-16 2020-10-16 Lichtlauftzeitkamerasystem Pending DE102020127332A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020127332.0A DE102020127332A1 (de) 2020-10-16 2020-10-16 Lichtlauftzeitkamerasystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020127332.0A DE102020127332A1 (de) 2020-10-16 2020-10-16 Lichtlauftzeitkamerasystem

Publications (1)

Publication Number Publication Date
DE102020127332A1 true DE102020127332A1 (de) 2022-04-21

Family

ID=80929336

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020127332.0A Pending DE102020127332A1 (de) 2020-10-16 2020-10-16 Lichtlauftzeitkamerasystem

Country Status (1)

Country Link
DE (1) DE102020127332A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE102013207648A1 (de) 2012-05-21 2013-11-21 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem
DE102013207654A1 (de) 2012-05-21 2013-11-21 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem
DE102016219518A1 (de) 2015-11-12 2017-05-18 pmdtechnologies ag Lichtlaufzeitkamerasystem

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE102013207648A1 (de) 2012-05-21 2013-11-21 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem
DE102013207654A1 (de) 2012-05-21 2013-11-21 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem
DE102016219518A1 (de) 2015-11-12 2017-05-18 pmdtechnologies ag Lichtlaufzeitkamerasystem

Similar Documents

Publication Publication Date Title
WO2006063740A1 (de) Einkanal-heterodyn-distanzmessverfahren
DE102013207651A1 (de) Lichtlaufzeitkamerasystem
DE102013212090A1 (de) Winkelauflösender FMCW-Radarsensor
DE60029182T2 (de) Verfahren zur eindeutigen Abstandsschätzung
EP2019973A1 (de) Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles
DE102013207653B4 (de) Lichtlaufzeitkamerasystem
DE102014210750B3 (de) Lichtlaufzeitkamerasystem
DE102013207649A1 (de) Lichtlaufzeitkamerasystem
DE102010003409A1 (de) Lichtlaufzeit-Kamera
DE102012112985B3 (de) Entfernungsmessender optoelektronischer Sensor und Verfahren zur Erfassung und Abstandsbestimmung von Objekten
EP1315979B1 (de) Verfahren zur bestimmung eines drehwinkels oder abstandes durch auswertung von phasenmesswerten
DE102013207654B4 (de) Lichtlaufzeitkamerasystem
DE102013207647A1 (de) Lichtlaufzeitkamerasystem
DE102020127332A1 (de) Lichtlauftzeitkamerasystem
DE102014204423B4 (de) Lichtlaufzeitkamerasystem
DE102013207648B4 (de) Lichtlaufzeitkamerasystem
DE102015225192A1 (de) Lichtlaufzeitmesssystem mit Überreichweitenerkennung
EP1540374B1 (de) Verfahren zum bestimmen einer entfernung und entfernungsmessgerät mit verbesserung der effektiven auflösung eines a/d-wandlers durch phasenmodulation des auswertesignals
DE102014205585B4 (de) Verfahren zum Betreiben einer Lichtlaufzeitkamera und Lichtlaufzeitkamerasystem
DE102013207650B4 (de) Lichtlaufzeitkamerasystem
DE102017203091A1 (de) Lichtlaufzeitkamerasystem
DE102013207652B4 (de) Lichtlaufzeitkamerasystem
DE102016219170A1 (de) Lichtlaufzeitkamerasystem
DE102020123537B4 (de) Lichtlaufzeitkamerasystem
DE102010003411A1 (de) Lichtlaufzeit-Kamera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication