DE102019124142A1 - Lichtlaufzeitkamerasystem - Google Patents

Lichtlaufzeitkamerasystem Download PDF

Info

Publication number
DE102019124142A1
DE102019124142A1 DE102019124142.1A DE102019124142A DE102019124142A1 DE 102019124142 A1 DE102019124142 A1 DE 102019124142A1 DE 102019124142 A DE102019124142 A DE 102019124142A DE 102019124142 A1 DE102019124142 A1 DE 102019124142A1
Authority
DE
Germany
Prior art keywords
time
light
phase
sensor
flight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019124142.1A
Other languages
English (en)
Inventor
Holger Bette
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PMDtechnologies AG
Original Assignee
PMDtechnologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PMDtechnologies AG filed Critical PMDtechnologies AG
Priority to DE102019124142.1A priority Critical patent/DE102019124142A1/de
Publication of DE102019124142A1 publication Critical patent/DE102019124142A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement

Abstract

Beleuchtung für eine Lichtlaufzeitkamerasystem zur Aussendung eines strukturierten und modulierten Lichts,wobei die Beleuchtung derart ausgestaltet ist, dass ein erster Eindeutigkeits und wenigstens ein weiterer den Eindeutigkeits wiederholender Bereich ermittelbar und identifizierbar ist.

Description

  • Die Erfindung betrifft ein Lichtlaufzeitkamerasystem und ein Verfahren zum Betreiben eines solchen nach Gattung der unabhängigen Ansprüche.
  • Mit Lichtlaufzeitkamerasystem sollen hier insbesondere Systeme umfasst sein, die Entfernungen direkt aus der Lichtlaufzeit ermitteln oder die Lichtlaufzeit aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u.a. in der DE 197 04 496 A1 beschrieben und beispielsweise von der Firma ‚ifm electronic GmbH‘ oder ‚pmdtechnologies ag‘ als O3D-Kamera bzw. als CamBoard zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
  • Aus der DE 197 04 496 A1 ist ferner die Bestimmung einer Entfernung bzw. einer entsprechenden Phasenverschiebung des von einem Objekt reflektierten Lichts bekannt. Insbesondere wird offenbart, die Sendermodulation gezielt um 90°, 180° oder 270° zu verschieben, um aus diesen vier Phasenmessungen über eine arctan-Funktion eine Phasenverschiebung und somit eine Entfernung zu bestimmen.
  • Aufgabe der Erfindung ist es, die Entfernungsmessung eines Lichtlaufzeitkamerasystems zu verbessern.
  • Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Lichtlaufzeitkamerasystem und Verfahren nach Gattung der unabhängigen Ansprüche gelöst.
  • Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
  • Es zeigen:
    • 1 schematisch ein Lichtlaufzeitkamerasystem,
    • 2 eine modulierte Integration erzeugter Ladungsträger,
    • 3 einen Querschnitt durch einen PMD-Lichtlaufzeitsensor mit Potentialverteilung,
    • 4 einen zeitlichen Verlauf der Integrationsspannungen an einem Lichtlaufzeitpixel,
    • 5 Verläufe der Ladungsintegration abhängig von der Phasenverschiebung und -lage,
    • 6 eine Relation der Phasenverschiebung in einem IQ-Diagramm,
    • 7 einen Modulationsverlauf über vier Phasenlagen,
    • 8 eine triangulationsbedingten Lichtpunktversatz,
    • 9 eine mögliche Sensoranpassung,
    • 10 einen Parallelversatz von Sender und Empfänger,
    • 11 eine untypsichen kleinen Parallelversatz.
  • Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
  • 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer Lichtlaufzeitkamera, wie sie beispielsweise aus der DE 197 04 496 A1 bekannt ist.
  • Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem Lichtlaufzeitsensor 22.
  • Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel-Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.
  • Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Lichtlaufzeitsensor 22 über einen Modulator 30 gemeinsam mit einem bestimmten Modulationssignal Mo mit einer Basisphasenlage φ0 beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φ0 des Modulationssignals Mo der Lichtquelle 12 um definierte Phasenlagen φvar verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von φvar = 0°, 90°, 180°, 270° verwendet.
  • Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein intensitätsmoduliertes Signal Sp1 mit der ersten Phasenlage p1 bzw. p1 = φ0 + φvar aus. Dieses Signal Sp1 bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben Δφ(tL) mit einer zweiten Phasenlage p2 = φ0 + φvar + Δ(φ(tL) als Empfangssignal Sp2 auf den Lichtlaufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal Mo mit dem empfangenen Signal Sp2 gemischt, wobei aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.
  • Ferner weist das System ein Modulationssteuergerät 27 auf, das in Abhängigkeit der vorliegenden Messaufgabe die Phasenlage φvar das Modulationssignal Mo verändert und/oder über einen Frequenzoszillator 38 die Modulationsfrequenz einstellt.
  • Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden. Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.
  • Das Grundprinzip der Phasenmessung ist schematisch in 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals M0 mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal Sp2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(tL) auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals Mo in einem ersten Akkumulationsgate Ga und in einer um 180° verschobenen Phasenlage M0 + 180° in einem zweiten Akkumulationsgate Gb. Aus dem Verhältnis der im ersten und zweiten Gate Ga, Gb gesammelten Ladungen qa, qb lässt sich die Phasenverschiebung Δφ(tL) und somit eine Entfernung d des Objekts bestimmen.
  • 3 zeigt einen Querschnitt durch einen Pixel eines Photomischdetektors wie er beispielsweise aus der DE 197 04 496 C2 bekannt ist. Die Modulationsphotogates Gam, G0, Gbm bilden den lichtsensitiven Bereich eines PMD-Pixels. Entsprechend der an den Modulationsgates Gam, G0, Gbm angelegten Spannung werden die photonisch erzeugten Ladungen q entweder zum einen oder zum anderen Akkumulationsgate bzw. Integrationsknoten Ga, Gb gelenkt. Die Integrationsknoten können als Gate oder auch als Diode ausgebildet sein.
  • 3b zeigt einen Potenzialverlauf, bei dem die Ladungen q in Richtung des ersten Integrationskonten Ga abfliesen, während das Potenzial gemäß 3c die Ladung q in Richtung des zweiten Integrationsknoten Gb fließen lässt. Die Potenziale werden entsprechend der anliegenden Modulationssignale vorgegeben. Je nach Anwendungsfall liegen die Modulationsfrequenzen vorzugsweise in einem Bereich von 1 bis 100 MHz. Bei einer Modulationsfrequenz von beispielsweise 1 MHz ergibt sich eine Periodendauer von einer Mikrosekunde, so dass das Modulationspotenzial dementsprechend alle 500 Nanosekunden wechselt.
  • In 3a ist ferner eine Ausleseeinheit 400 dargestellt, die gegebenenfalls bereits Bestandteil eines als CMOS ausgebildeten PMD-Lichtlaufzeitsensors sein kann. Die als Kapazitäten bzw. Dioden ausgebildeten Integrationsknoten Ga, Gb integrieren die photonisch erzeugten Ladungen über eine Vielzahl von Modulationsperioden. In bekannter Weise kann die dann an den Gates Ga, Gb anliegende Spannung beispielsweise über die Ausleseeinheit 400 hochohmig abgegriffen werden. Die Integrationszeiten sind vorzugsweise so zu wählen, dass für die zu erwartende Lichtmenge der Lichtlaufzeitsensor bzw. die Integrationsknoten und/oder die lichtsensitiven Bereiche nicht in Sättigung geraten.
  • In 4 ist ein typischer zeitlicher Verlauf der an den Integrationsknoten Ga, Gb während einer Phasenmessung anliegenden Spannung Ua , Ub . Ausgehend von einer nach einem Reset an den Integrationsknoten anliegenden positiven Resetspannung UDRS fällt die Spannung aufgrund der akkumulierten Photoelektronen an beiden Integrationsknoten Ga, Gb ab. Entsprechend der Phasenverschiebung Δφ(tL) des empfangenen Signals fallen die Spannungen an den Integrationsknoten Ga, Gb unterschiedlich stark ab. Zum Ende der Integrationszeit tint wird die an den Integrationsknoten Ga, Gb anliegenden Spannung Ua , Ub ausgelesen. Die Spannungsdifferenz ΔU der beiden Spannungen Ua , Ub entspricht in bekannter Weise der Differenz Δq der an den Integrationsknoten Ga, Gb akkumulierten Ladung q. Die Integrationszeit tint ist vorzugsweise so bemessen, dass kein Integrationsknoten Ga, Gb bei einer üblichen Belichtung sein Sättigungspotential Us erreicht. Für größere Signalstärken kann auch eine so genannte SBI-Schaltung zur Signalkompensation vorgesehen sein. Derartige Schaltungen sind beispielsweise aus der DE 10 2004 016 626 A1 oder DE 10 2005 056 774 A1 bekannt.
  • 5a und 5b zeigen Verläufe der normierten Ladungsdifferenz Δq = qa - qb / (qa + qb) in Abhängigkeit der Phasenverschiebung Δφ(tL) des empfangenen Lichtsignals Sp2 mit unterschiedlichen Phasenlagen. Die 5a zeigt einen Verlauf für eine unverschobene Modulationsphase Mo mit einer Phasenlage φvar = 0°.
  • Bei einem Auftreffen des Signals Sp2 ohne Phasenverschiebung also Δφ(tL) = 0°, beispielsweise, wenn das Sendesignal Sp1 direkt auf den Sensor gelenkt wird, sind die Phasen der Modulation M0 und vom empfangenen Signal Sp2 identisch, so dass alle erzeugten Ladungsträger phasensynchron am ersten Integrationsknoten Ga erfasst werden und somit ein maximales Differenzsignal mit Δq = 1 anliegt.
  • Mit zunehmender Phasenverschiebung nimmt die am ersten Integrationsknoten Ga akkumulierte Ladung ab und am zweiten Integrationsknoten Gb zu. Bei einer Phasenverschiebung von Δφ(tL) = 90° sind die Ladungsträger qa, qb an beiden Integrationsknoten Ga, Gb gleich verteilt und die Ladungsdifferenz somit Null und nach 180° Phasenverschiebung „-1“. Mit weiter zunehmender Phasenverschiebung nimmt die Ladung am ersten Gate Ga wieder zu, so dass im Ergebnis die Ladungsdifferenz wieder ansteigt, um dann bei 360° bzw. 0° wieder ein Maximum zu erreichen.
  • Mathematisch handelt es sich hierbei um eine Korrelationsfunktion des empfangenen Signals Sp2 mit dem modulierenden Signal M0. q ( τ ) = 0 S p 2 ( t τ ) M 0 ( t ) d t
    Figure DE102019124142A1_0001
  • Bei einer Modulation mit einem Rechtecksignal ergibt sich wie bereits dargestellt als Korrelationsfunktion eine Dreiecksfunktion. Bei einer Modulation mit beispielsweise einem Sinussignal wäre das Ergebnis eine Kosinusfunktion.
  • Wie 5a zeigt, ist eine Messung der Phase mit einer Phasenlage nur bis zu einer Phasenverschiebung Δφ(tL) ≤ 180° eindeutig.
  • Zur maximalen Erfassung der Phasenverschiebung ist beispielsweise das IQ(Inphase-Quadratur) Verfahren bekannt, bei dem zwei Messungen mit um 90° verschobenen Phasenlagen durchgeführt werden, also beispielsweise mit der Phasenlage φvar = 0° und φvar = 90°. Das Ergebnis einer Messung mit der Phasenlage φvar = 90° ist in 5b dargestellt.
  • Die Beziehung dieser beiden Kurven lässt sich in bekannter Weise beispielsweise für sinusförmige Kurvenverläufe in einem IQ-Diagramm gem. 6 darstellen. In erster Näherung ist diese Darstellung ohne weiteres auch für die dargestellten Dreiecksfunktionen anwendbar.
  • Der Phasenwinkel lässt sich dann in bekannter Weise über eine arctan-Funktion bzw. arctan2-Funktion bestimmen: φ = a r c t a n Δ q ( 90 ° ) Δ q ( 0 ° )
    Figure DE102019124142A1_0002
  • Aufgrund des linearen Zusammenhangs zwischen Ladung und Spannung, lässt sich der Phasenwinkel ebenso über die Spannungsdifferenzen bestimmen: φ = a r c t a n Δ U ( 90 ° ) Δ U ( 0 ° )
    Figure DE102019124142A1_0003
  • Um beispielsweise Asymmetrien des Sensors zu kompensieren, können zusätzliche um 180° verschobene Phasenmessungen durchgeführt werden, so dass sich im Ergebnis der Phasenwinkel wie folgt bestimmen lässt. φ = Δ φ ( t L ) = a r c t a n Δ q ( 90 ° ) Δ q ( 270 ° ) Δ q ( 0 ° ) Δ q ( 180 ° )
    Figure DE102019124142A1_0004
  • Oder verkürzt formuliert: φ = Δ φ ( t L ) = a r c t a n a 2 a 4 a 1 a 3
    Figure DE102019124142A1_0005
  • Wobei die Indizes die jeweilige Phasenlage der Differenzen ai andeuten, mit a 1 = Δ q ( 0 ° )  usw .
    Figure DE102019124142A1_0006
  • Aus der Phasenverschiebung φ bzw. Δφ(tL) lassen sich für Objektabstände d, die kleiner sind als die halbe Wellenlänge λ der Modulationsfrequenz d ≤ λ/2, in bekannter Weise ein Abstand bestimmen. d = Δ φ ( t L ) λ 2 π 1 2
    Figure DE102019124142A1_0007
  • In 7 ist ein vollständiger Satz einer Entfernungsmessung mit vier Phasenlagen von 0°, 90°, 180° und 270° dargestellt. Im dargestellten Fall werden Ladungsträger jeweils über Modulationsperioden integriert und in jeder Phasenlage ein der Ladungsdifferenz entsprechender Wert a1, a2, a3, a4 ausgelesen, woraus sich wie bereits dargestellt eine Phasenverschiebung und ein entsprechender Entfernungswert ermitteln lässt.
  • In bisherigen ToF Systemen wird der 4 Phasen Algorithmus verwendet, um innerhalb eines Eindeutigkeitsbereichs die Phasenlage zu bestimmen. Bei diesem Algorithmus werden vier Stützstellen, die äquidistant im Eindeutigkeitsbereich von 0 bis 2π mit gleicher Modulationsfrequenz ermittelt und anschließend die Phasenlage der Grundwelle, die durch diese Stützstellen verläuft, berechnet. Der Eindeutigkeitsbereich wird durch einen Transformationsfaktor vom Bogenmaß in eine Distanz überführt.
  • Objekte in Abständen, die in Vielfachen dieses Eindeutigkeitsbereichs liegen (0 bis 2π), führen zu Mehrdeutigkeiten der Phasenlage. Diese Mehrdeutigkeiten können durch eine weitere Phasenmessung bzw. durch eine erneute Anwendung des 4 Phasenalgorithmus mit anderen, typischerweise einer niedrigeren Modulationsfrequenz in eine eindeutige Phasenlage überführt werden. Dieses Vorgehen impliziert demnach mindestens 8 Messungen bis ein eindeutiger Distanzwert berechnet werden kann.
  • Der Verlauf der Korrelationsfunktion bei einer Verwendung von rechteckförmigen Modulationssignalen ergibt wie gezeigt einen dreieckförmigen Verlauf der Korrelationsfunktion. In 8 sind zwei Korrelationen für unterschiedliche Frequenzen gezeigt. Die Funktion ist über der Distanz gezeichnet, um die Eindeutigkeitsbereiche und deren Wiederholung sichtbar darzustellen. Durch das Verhältnis der gewählten Modulationsfrequenzen (30MHz / 15 MHz) ist der Eindeutigkeitsbereich der maximalen Frequenz halb so groß, wie der der niedrigeren Frequenz.
  • Aktuell werden bei vielen ToF-Kameras, welche nach dem Phasen-ToF Verfahren arbeiten (z.B. PMD-Kameras) Szenerien komplett beleuchtet, d.h. FoV (field of view) ist nahezu identisch mit dem Fol (field of illumination).
    Zum Ausgleich von Objektivvignettierung, Messabständen etc. wird desöfteren eine Beleuchtung mit erhöhten Intensitäten am Bildrand benutzt
  • Bei der vollständigen Beleuchtung ergeben sich folgende Probleme, welche mittels der neuen Idee vermindert bzw. gelöst werden können:
    • - Übersprechen von verschiedenen Bildteilen auf jedes Pixel bedingt durch Streulicht in der Empfangsoptik (Schmutz, Kratzer), Reflexen am Sensor oder an Linsen (Beschichtungen nicht Perfekt bzw. keine 100%ige Absorption im Sensor) etc.; d.h. die Abstandsinformationen eines nahen und eines fernen Objekts überlagert sich und kann sogar dominant werden, z.B. nahes weißes Objekt (oder sogar Retroreflektor) verursacht Streulicht auf Bildbereichen, welche in der Szene weit weg und/oder nur schwach reflektierend sind. Hier kann das Streusignal sogar größer sein, als das eigentliche Messsignal.
    • - Übersprechen/Überlagerung von verschiedenen Beleuchtungsanteilen schon in der Szene, d.h. ein Bildpunkt wird in der Szene sowohl direkt von der Beleuchtung der ToF Kamera beleuchtet, als auch indirekt via eines Reflexes (z.B. direkt auf Wand vs. Erst auf Fensterscheibe und dann auf Wand)
    • - Übersprechen/Überlagerung von Beleuchtungsanteilen aus der Messszene (rücklaufendes Licht) und direktem Licht aus dem Sender (hinlaufendes Licht), z.B., wenn Senderstrahlung in Empfangsweg hineingekoppelt wird, etwa bei gemeinsam genutztem Fenster für Sende und Empfangsweg. Hier kann Senderlicht in das Fenster eingekoppelt werden (Schmutz, Kratzer etc.) und aus demselben Grund vor dem Objektiv wieder ausgekoppelt werden
    • - Begrenzte Messreichweite aufgrund von:
      • o limitierter Versorgungs- oder Kühlleistung der Beleuchtung
      • o Problemen mit Augen- oder Hautsicherheit, siehe Normen/Gesetze: IEC60825-1:2007, IEC60825-1:2014, OStrV-Gesetz, RICHTLINIE 2006/25/EG DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 5. April 2006, IEC62471 Beleuchtung mit Punktlichtmuster anstelle homogenem Lichtprofil (Licht jeweils zeitlich moduliert, so dass ToF Messung möglich ist).
    Der Nachteil, dass ggf. nur so viele Messpunkte nutzbar sind, wie Lichtpunkte emittiert werden, wird in Kauf genommen, da dafür zum Ausgleich anderweitige Vorteile bestehen.
  • Vorgeschlagen wird eine Strukturierte Beleuchtung für ToF und Eindeutigkeitsbereichsbestimmung Entfernungen können u.a. mittels ToF oder Triangulation bestimmt werden. Auch kombinierte Verfahren innerhalb eines Sensors finden sich im Stand der Technik, z.B. um Genauigkeiten zu erhöhen oder die Ergebnisse der Einzelmessungen überkreuz zu verifizieren.
  • Bei Triangulation sind jedoch typischerweise nicht viele Messpunkte im Vergleich zur Gesamtzahl der Pixel des Sensor üblich, da zum einen die Messauflösung stark von dem Winkel zwischen Lichtsenderichtung und Empfangsrichtung abhängt (oder umgekehrt: über wieviele Pixel kann ein einzelner Lichtpunkt laufen → je mehr, umso besser die Auflösung). Zugleich leiden Triangulationssysteme an Stabilitätsproblemen (Alterung, Temperatur, Erschütterung/Dejustage etc.)
  • Bei ToF Verfahren hat man oftmals das Problem der sog. Eindeutigkeitsbereichsbestimmung. Dies ist ein Problem bei den sog. Phasen-ToF Verfahren und liegt primär in der Periodizität der modulierten Beleuchtung und der Periodizität der Periodizität der Demodulation im Empfänger. Bei f=60 MHz hat man z.B. einen Eindeutigkeitsbereich von 2,5 m (=c/(s*f)). D.h. um Ziele in 0,2 m und 2,7 m zu unterscheiden, muss man entweder Plausibilisieren oder weitere Messungen z.B. mit weiteren Frequenzen durchführen, was aber zu Einschränkungen in der Bildrate und hohem Auswerteaufwand führt.
  • Idee ist, bei einer strukturierten ToF Beleuchtung mittels eines leichten Versatzes zwischen Beleuchtungsrichtung und Beobachtungsrichtung einen ganz schwachen Triangulationseffekt auszulösen. Ausreichend ist, wenn dieser Effekt so groß ist, dass die Eindeutigkeitsbereiche der ToF Messung bestimmt werden können. Bei Benutzung der sog. Subpixelauflösung sind sogar Versätze um Pixelbruchteile ausreichend.
  • Genutzt werden können hier Punktlichtmuster oder aber auch Streifenmuster, wobei die Streifen lediglich nicht parallel zur Triangulationsbewegung auf dem Chip sein dürfen. Vorteilhaft ist eine Anordnung, bei welcher die Lichtstreifen/Lichtpunkte in Richtung des Triangulationsversatzes einen solchen Abstand haben, dass sich benachbarte Lichtstreifen/Lichtpunkte bei allen zu erwartenden Messdistanzunterschieden nicht auf demselben Pixel überlagern können.
    Wenn also ein Lichtpunkt (oder Teil eines Lichtstreifens) aufgrund von Triangulationseffekten maximal um ein Pixel wandern kann, so wäre ein Lichtpunktemuster/Lichtstreifenmuster, bei welchem bei konstanter Messdistanz das Abbild der Lichtstreifen/Lichtpunkte nur jedes dritte Pixel in Richtung des zu erwartenden Triangulationsversatzes beleuchtet vorteilhaft im Sinne von Anzahl der Messpunkte und Freiheit von Übersprechen.
    In Fällen, in denen der Lichtpunkt aufgrund der Triangulation signifikant über ein oder mehrere Pixel wandert, ist ggf. eine Sensoranpassung sinnvoll. D.h. die Pixel, welche im Nahbereich beleuchtet werden können kleiner, unempfindlicher oder stärker abgedeckt sein, während die Pixel - welche erst beleuchtet werden, wenn das jeweilige Ziel weiter entfernt ist - empfindlicher, größer oder weniger abgedeckt sein können. Dies kann sogar innerhalb eines Pixels geschehen mittels eine keilförmigen Abdeckung. Hierdurch wird eine aufgrund der Messdistanz verursachte Signalstärkenschwankung (typischerweise 1/Abstand^2) vermindert.
  • Sensorpixel, die über 2 oder mehrere räumlich getrennte Kontakte/ Auslesestrukturen/ Sammelknoten etc. verfügen - wie z.B. aktuelle ToF-Empfangspixel von pmdtechnologies - können diesen Effekt sogar innerhalb eines Pixels auflösen (ähnlich wie sog. Positionsdioden). Hinreichend ist in diesem Falle, wenn die Beleuchtung eine Intensitätsstruktur aufweist, welche signifikant innerhalb der jeweiligen Pixel ist. In diesem Fall kann man sogar ohne Lücken um Beleuchtungsfeld/Bildfeld arbeiten.
  • Vorteile aller o.g. Verfahren und Vorrichtungen sind: eine große Anzahl von Pixeln bleibt im Unterschied zu klassischer Triangulation nutzbar, ToF-typische komplizierte Mehrfrequenzmessungen und -auswertungen entfallen, Messzeit und Bewegungsartefakte werden kleiner.
    Alterung, Temperatureffekt, Dejustagen etc. lassen sich dadurch beheben, dass man hin und wieder - z.B. nach Zeitplan, Neustart, Detektion großer Erschütterungen oder anderen Ereignissen - die Triangulation neu kalibriert, z.B. indem man dann ToF-Mehrfrequenzmessungen durchführt.
    Mögliche Ausführungsbeispiele:
    1. a) Strukturierte ToF-Beleuchtung mit einer Beleuchtungsrichtung, welche einen nur geringen Versatz zur Beobachtungspfad aufweist, so dass die ersten Eindeutigkeitsbereiche der ToF-Messung identifiziert werden können.
    2. b) wie a), wobei die Lichtstruktur einzelne Lichtpunkte sind
    3. c) wie a), wobei die Lichtstruktur Streifen sind
    4. d) wie b) bzw. c) wobei die Intensität der abgebildeten Beleuchtung auf dem Detektorchip innerhalb eines Pixels signifikant variiert
    5. e) automatische („in system“) Kalibrierung der triangulationsbasierten Eindeutigkeitsbereichsbestimmung mittels eines anderen Verfahrens, z.B. Mehrfrequenz- ToF
    6. f) Sensor mit entsprechend der Beleuchtung und Triangulationsrichtung angepassten Pixeln mit unterschiedlichen Größen, Empfindlichkeiten oder Abdeckungen
    7. g) Sensor mit Pixeln, welche entsprechend der Beleuchtung und Triangulationsrichtung angepasste räumliche Empfindlichkeiten, Dotierungen oder Abdeckungen aufweisen
    8. h) Sensor welcher zugleich Pixel wie unter g) und h) aufweist
  • 8 zeigt einen triangulationsbedingten Lichtpunktabbildungsversatz für große Entfernungsänderungen des Zieles (einige Meter), wenn der Versatz (sog. Basislänge) zwischen Sender und Empfänger nur gering ist.
  • 9 eine mögliche Sensoranpassung, um die mit dem entfernungsabhängigen Lichtpunktversatz einhergehenden Signaländerung auszugleichen.
  • 10 zeigt einen Parallelversatz der optischen Achsen von Sender S und Empfänger E bei Verwendung von Linienmustern.
    triangulationsuntypisch wird selbst auf eine Zieldistanzänderung von einigen Metern hin ein Versatz des empfangenen Lichtsignals um nur 1 Pixel oder sogar nur im Bereich der Subpixelauflösung angestrebt.
  • 11 zeigt einen triangulationsuntypischen kleinen Parallelversatz der optischen Achsen von Sender S und Empfänger E bei Verwendung von Mustern, deren abgebildete Intensitäten auf dem Sensor innerhalb eines jeden Pixels variieren. Angestrebt wird ein Versatz um weniger als 1 Pixel, selbst bei Zieldistanzänderungen von einigen Metern.
    Vorteilhafterweise weist das empfangene Bild keine Beleuchtungslücken auf, d.h. alle Pixel sind nutzbar.
  • Bezugszeichenliste
  • 1
    Lichtlaufzeitkamerasystem
    10
    Beleuchtungsmodul
    12
    Beleuchtung
    20
    Empfänger, Lichtlaufzeitkamera
    22
    Lichtlaufzeitsensor
    27
    Auswerteeinheit
    30
    Modulator
    35
    Phasenschieber, Beleuchtungsphasenschieber
    38
    Modulationssteuergerät
    40
    Objekt
    400
    Auswerteeinheit
    φ, Δφ(tL)
    laufzeitbedingte Phasenverschiebung
    φvar
    Phasenlage
    φ0
    Basisphase
    Mo
    Modulationssignal
    p1
    erste Phase
    p2
    zweite Phase
    Sp1
    Sendesignal mit erster Phase
    Sp2
    Empfangssignal mit zweiter Phase
    Ga, Gb
    Integrationsknoten
    Ua, Ub
    Spannungen an den Integrationsknoten
    ΔU
    Spannungsdifferenz
    Δq
    Ladungsdifferenz
    d
    Objektdistanz
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19704496 A1 [0002, 0003, 0009]
    • DE 19704496 C2 [0017]
    • DE 102004016626 A1 [0020]
    • DE 102005056774 A1 [0020]

Claims (4)

  1. Beleuchtung für eine Lichtlaufzeitkamerasystem zur Aussendung eines strukturierten und modulierten Lichts, wobei die Beleuchtung derart ausgestaltet ist, dass ein erster Eindeutigkeits und wenigstens ein weiterer den Eindeutigkeits wiederholender Bereich ermittelbar und identifizierbar ist.
  2. Beleuchtung nach Anspruch 1, bei dem die Lichtstruktur aus Lichtpunkten und/oder Streifen aufgebaut ist.
  3. Beleuchtung nach einem der vorhergehenden Ansprüche, bei dem die Intensität der abgebildeten Beleuchtung auf dem Lichtlaufzeitsensor signifikant variiert.
  4. Lichtlaufzeitkamerasystem mit einer Beleuchtung nach einem der vorhergehenden Ansprüche, bei dem Lichtlaufzeitsensor und/Pixel des Lichtlaufzeitsensors im Hinblick auf eine Entfernungsmessung mittels Triangulation hinsichtlich Größe, Empfindlichkeit und/oder Abdeckung angepasst sind.
DE102019124142.1A 2019-09-09 2019-09-09 Lichtlaufzeitkamerasystem Pending DE102019124142A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019124142.1A DE102019124142A1 (de) 2019-09-09 2019-09-09 Lichtlaufzeitkamerasystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019124142.1A DE102019124142A1 (de) 2019-09-09 2019-09-09 Lichtlaufzeitkamerasystem

Publications (1)

Publication Number Publication Date
DE102019124142A1 true DE102019124142A1 (de) 2021-03-11

Family

ID=74644934

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019124142.1A Pending DE102019124142A1 (de) 2019-09-09 2019-09-09 Lichtlaufzeitkamerasystem

Country Status (1)

Country Link
DE (1) DE102019124142A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009018464A1 (de) * 2009-04-22 2010-11-11 Leuze Electronic Gmbh + Co. Kg Optischer Sensor
US20120249998A1 (en) * 2009-09-11 2012-10-04 Robert Bosch Gmbh Optical Distance Measuring Device
US20180081062A1 (en) * 2016-09-20 2018-03-22 Apple Inc. Line scan depth sensor
US20180331139A1 (en) * 2017-04-28 2018-11-15 The Governing Council Of The University Of Toronto Method and system for pixel-wise imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009018464A1 (de) * 2009-04-22 2010-11-11 Leuze Electronic Gmbh + Co. Kg Optischer Sensor
US20120249998A1 (en) * 2009-09-11 2012-10-04 Robert Bosch Gmbh Optical Distance Measuring Device
US20180081062A1 (en) * 2016-09-20 2018-03-22 Apple Inc. Line scan depth sensor
US20180331139A1 (en) * 2017-04-28 2018-11-15 The Governing Council Of The University Of Toronto Method and system for pixel-wise imaging

Similar Documents

Publication Publication Date Title
DE102010036964B4 (de) Verzögerungskompensation bei einer modulierten optischen Laufzeit-Phasenabschätzung
EP2019973A1 (de) Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles
DE102013207649A1 (de) Lichtlaufzeitkamerasystem
DE102013207651A1 (de) Lichtlaufzeitkamerasystem
DE102013207653B4 (de) Lichtlaufzeitkamerasystem
DE102016213217A1 (de) Lichtlaufzeitkamerasystem
DE102015217912A1 (de) Verfahren zur Laufzeitkalibrierung eines Lidarsensors
DE102014207163A1 (de) Lichtlaufzeitkamerasystem
DE102013207654B4 (de) Lichtlaufzeitkamerasystem
DE102013203088B4 (de) Lichtlaufzeitkamerasystem
DE102014205585B4 (de) Verfahren zum Betreiben einer Lichtlaufzeitkamera und Lichtlaufzeitkamerasystem
DE102020123537B4 (de) Lichtlaufzeitkamerasystem
DE102013207648B4 (de) Lichtlaufzeitkamerasystem
DE102015225192A1 (de) Lichtlaufzeitmesssystem mit Überreichweitenerkennung
DE102013207647A1 (de) Lichtlaufzeitkamerasystem
DE102017203090A1 (de) Lichtlaufzeitkamerasystem
DE102019124142A1 (de) Lichtlaufzeitkamerasystem
DE102017200879B4 (de) Lichtlaufzeitkamera und Verfahren zum Betreiben einer solchen
DE102013207652B4 (de) Lichtlaufzeitkamerasystem
DE102016219170A1 (de) Lichtlaufzeitkamerasystem
DE102019124144A1 (de) Entfernungsmesssystem
DE102016222334B4 (de) Verfahren zur Ermittlung von Systemparametern eines Lichtlaufzeitkamerasystems
DE102013207650B4 (de) Lichtlaufzeitkamerasystem
DE102016214167B4 (de) Lichtlaufzeitkamerasystem
DE102020123541A1 (de) Entfernungsmesssystem

Legal Events

Date Code Title Description
R163 Identified publications notified