-
Die Erfindung betrifft ein Lichtlaufzeitkamerasystem und ein Verfahren zum Betreiben eines solchen nach Gattung der unabhängigen Ansprüche.
-
Mit Lichtlaufzeitkamerasystem sollen hier insbesondere Systeme umfasst sein, die Entfernungen direkt aus der Lichtlaufzeit ermitteln oder die Lichtlaufzeit aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u.a. in der
DE 197 04 496 A1 beschrieben und beispielsweise von der Firma ‚ifm electronic GmbH‘ oder ‚pmdtechnologies ag‘ als O3D-Kamera bzw. als CamBoard zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
-
Aus der
DE 197 04 496 A1 ist ferner die Bestimmung einer Entfernung bzw. einer entsprechenden Phasenverschiebung des von einem Objekt reflektierten Lichts bekannt. Insbesondere wird offenbart, die Sendermodulation gezielt um 90°, 180° oder 270° zu verschieben, um aus diesen vier Phasenmessungen über eine arctan-Funktion eine Phasenverschiebung und somit eine Entfernung zu bestimmen.
-
Aufgabe der Erfindung ist es, die Entfernungsmessung eines Lichtlaufzeitkamerasystems zu verbessern.
-
Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Lichtlaufzeitkamerasystem und Verfahren nach Gattung der unabhängigen Ansprüche gelöst.
-
Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
-
Es zeigen:
- 1 schematisch ein Lichtlaufzeitkamerasystem,
- 2 eine modulierte Integration erzeugter Ladungsträger,
- 3 einen Querschnitt durch einen PMD-Lichtlaufzeitsensor mit Potentialverteilung,
- 4 einen zeitlichen Verlauf der Integrationsspannungen an einem Lichtlaufzeitpixel,
- 5 Verläufe der Ladungsintegration abhängig von der Phasenverschiebung und -lage,
- 6 eine Relation der Phasenverschiebung in einem IQ-Diagramm,
- 7 einen Modulationsverlauf über vier Phasenlagen,
- 8 eine triangulationsbedingten Lichtpunktversatz,
- 9 eine mögliche Sensoranpassung,
- 10 einen Parallelversatz von Sender und Empfänger,
- 11 eine untypsichen kleinen Parallelversatz.
-
Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
-
1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer Lichtlaufzeitkamera, wie sie beispielsweise aus der
DE 197 04 496 A1 bekannt ist.
-
Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem Lichtlaufzeitsensor 22.
-
Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel-Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.
-
Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Lichtlaufzeitsensor 22 über einen Modulator 30 gemeinsam mit einem bestimmten Modulationssignal Mo mit einer Basisphasenlage φ0 beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φ0 des Modulationssignals Mo der Lichtquelle 12 um definierte Phasenlagen φvar verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von φvar = 0°, 90°, 180°, 270° verwendet.
-
Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein intensitätsmoduliertes Signal Sp1 mit der ersten Phasenlage p1 bzw. p1 = φ0 + φvar aus. Dieses Signal Sp1 bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben Δφ(tL) mit einer zweiten Phasenlage p2 = φ0 + φvar + Δ(φ(tL) als Empfangssignal Sp2 auf den Lichtlaufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal Mo mit dem empfangenen Signal Sp2 gemischt, wobei aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.
-
Ferner weist das System ein Modulationssteuergerät 27 auf, das in Abhängigkeit der vorliegenden Messaufgabe die Phasenlage φvar das Modulationssignal Mo verändert und/oder über einen Frequenzoszillator 38 die Modulationsfrequenz einstellt.
-
Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden. Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.
-
Das Grundprinzip der Phasenmessung ist schematisch in 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals M0 mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal Sp2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(tL) auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals Mo in einem ersten Akkumulationsgate Ga und in einer um 180° verschobenen Phasenlage M0 + 180° in einem zweiten Akkumulationsgate Gb. Aus dem Verhältnis der im ersten und zweiten Gate Ga, Gb gesammelten Ladungen qa, qb lässt sich die Phasenverschiebung Δφ(tL) und somit eine Entfernung d des Objekts bestimmen.
-
3 zeigt einen Querschnitt durch einen Pixel eines Photomischdetektors wie er beispielsweise aus der
DE 197 04 496 C2 bekannt ist. Die Modulationsphotogates Gam, G0, Gbm bilden den lichtsensitiven Bereich eines PMD-Pixels. Entsprechend der an den Modulationsgates Gam, G0, Gbm angelegten Spannung werden die photonisch erzeugten Ladungen q entweder zum einen oder zum anderen Akkumulationsgate bzw. Integrationsknoten
Ga,
Gb gelenkt. Die Integrationsknoten können als Gate oder auch als Diode ausgebildet sein.
-
3b zeigt einen Potenzialverlauf, bei dem die Ladungen q in Richtung des ersten Integrationskonten Ga abfliesen, während das Potenzial gemäß 3c die Ladung q in Richtung des zweiten Integrationsknoten Gb fließen lässt. Die Potenziale werden entsprechend der anliegenden Modulationssignale vorgegeben. Je nach Anwendungsfall liegen die Modulationsfrequenzen vorzugsweise in einem Bereich von 1 bis 100 MHz. Bei einer Modulationsfrequenz von beispielsweise 1 MHz ergibt sich eine Periodendauer von einer Mikrosekunde, so dass das Modulationspotenzial dementsprechend alle 500 Nanosekunden wechselt.
-
In 3a ist ferner eine Ausleseeinheit 400 dargestellt, die gegebenenfalls bereits Bestandteil eines als CMOS ausgebildeten PMD-Lichtlaufzeitsensors sein kann. Die als Kapazitäten bzw. Dioden ausgebildeten Integrationsknoten Ga, Gb integrieren die photonisch erzeugten Ladungen über eine Vielzahl von Modulationsperioden. In bekannter Weise kann die dann an den Gates Ga, Gb anliegende Spannung beispielsweise über die Ausleseeinheit 400 hochohmig abgegriffen werden. Die Integrationszeiten sind vorzugsweise so zu wählen, dass für die zu erwartende Lichtmenge der Lichtlaufzeitsensor bzw. die Integrationsknoten und/oder die lichtsensitiven Bereiche nicht in Sättigung geraten.
-
In
4 ist ein typischer zeitlicher Verlauf der an den Integrationsknoten
Ga,
Gb während einer Phasenmessung anliegenden Spannung
Ua ,
Ub . Ausgehend von einer nach einem Reset an den Integrationsknoten anliegenden positiven Resetspannung U
DRS fällt die Spannung aufgrund der akkumulierten Photoelektronen an beiden Integrationsknoten
Ga,
Gb ab. Entsprechend der Phasenverschiebung
Δφ(tL) des empfangenen Signals fallen die Spannungen an den Integrationsknoten
Ga,
Gb unterschiedlich stark ab. Zum Ende der Integrationszeit t
int wird die an den Integrationsknoten
Ga,
Gb anliegenden Spannung
Ua ,
Ub ausgelesen. Die Spannungsdifferenz
ΔU der beiden Spannungen
Ua ,
Ub entspricht in bekannter Weise der Differenz
Δq der an den Integrationsknoten
Ga,
Gb akkumulierten Ladung q. Die Integrationszeit t
int ist vorzugsweise so bemessen, dass kein Integrationsknoten
Ga,
Gb bei einer üblichen Belichtung sein Sättigungspotential Us erreicht. Für größere Signalstärken kann auch eine so genannte SBI-Schaltung zur Signalkompensation vorgesehen sein. Derartige Schaltungen sind beispielsweise aus der
DE 10 2004 016 626 A1 oder
DE 10 2005 056 774 A1 bekannt.
-
5a und 5b zeigen Verläufe der normierten Ladungsdifferenz Δq = qa - qb / (qa + qb) in Abhängigkeit der Phasenverschiebung Δφ(tL) des empfangenen Lichtsignals Sp2 mit unterschiedlichen Phasenlagen. Die 5a zeigt einen Verlauf für eine unverschobene Modulationsphase Mo mit einer Phasenlage φvar = 0°.
-
Bei einem Auftreffen des Signals Sp2 ohne Phasenverschiebung also Δφ(tL) = 0°, beispielsweise, wenn das Sendesignal Sp1 direkt auf den Sensor gelenkt wird, sind die Phasen der Modulation M0 und vom empfangenen Signal Sp2 identisch, so dass alle erzeugten Ladungsträger phasensynchron am ersten Integrationsknoten Ga erfasst werden und somit ein maximales Differenzsignal mit Δq = 1 anliegt.
-
Mit zunehmender Phasenverschiebung nimmt die am ersten Integrationsknoten Ga akkumulierte Ladung ab und am zweiten Integrationsknoten Gb zu. Bei einer Phasenverschiebung von Δφ(tL) = 90° sind die Ladungsträger qa, qb an beiden Integrationsknoten Ga, Gb gleich verteilt und die Ladungsdifferenz somit Null und nach 180° Phasenverschiebung „-1“. Mit weiter zunehmender Phasenverschiebung nimmt die Ladung am ersten Gate Ga wieder zu, so dass im Ergebnis die Ladungsdifferenz wieder ansteigt, um dann bei 360° bzw. 0° wieder ein Maximum zu erreichen.
-
Mathematisch handelt es sich hierbei um eine Korrelationsfunktion des empfangenen Signals
Sp2 mit dem modulierenden Signal M
0.
-
Bei einer Modulation mit einem Rechtecksignal ergibt sich wie bereits dargestellt als Korrelationsfunktion eine Dreiecksfunktion. Bei einer Modulation mit beispielsweise einem Sinussignal wäre das Ergebnis eine Kosinusfunktion.
-
Wie 5a zeigt, ist eine Messung der Phase mit einer Phasenlage nur bis zu einer Phasenverschiebung Δφ(tL) ≤ 180° eindeutig.
-
Zur maximalen Erfassung der Phasenverschiebung ist beispielsweise das IQ(Inphase-Quadratur) Verfahren bekannt, bei dem zwei Messungen mit um 90° verschobenen Phasenlagen durchgeführt werden, also beispielsweise mit der Phasenlage φvar = 0° und φvar = 90°. Das Ergebnis einer Messung mit der Phasenlage φvar = 90° ist in 5b dargestellt.
-
Die Beziehung dieser beiden Kurven lässt sich in bekannter Weise beispielsweise für sinusförmige Kurvenverläufe in einem IQ-Diagramm gem. 6 darstellen. In erster Näherung ist diese Darstellung ohne weiteres auch für die dargestellten Dreiecksfunktionen anwendbar.
-
Der Phasenwinkel lässt sich dann in bekannter Weise über eine arctan-Funktion bzw. arctan2-Funktion bestimmen:
-
Aufgrund des linearen Zusammenhangs zwischen Ladung und Spannung, lässt sich der Phasenwinkel ebenso über die Spannungsdifferenzen bestimmen:
-
Um beispielsweise Asymmetrien des Sensors zu kompensieren, können zusätzliche um 180° verschobene Phasenmessungen durchgeführt werden, so dass sich im Ergebnis der Phasenwinkel wie folgt bestimmen lässt.
-
Oder verkürzt formuliert:
-
Wobei die Indizes die jeweilige Phasenlage der Differenzen a
i andeuten, mit
-
Aus der Phasenverschiebung
φ bzw.
Δφ(tL) lassen sich für Objektabstände
d, die kleiner sind als die halbe Wellenlänge λ der Modulationsfrequenz d ≤ λ/2, in bekannter Weise ein Abstand bestimmen.
-
In 7 ist ein vollständiger Satz einer Entfernungsmessung mit vier Phasenlagen von 0°, 90°, 180° und 270° dargestellt. Im dargestellten Fall werden Ladungsträger jeweils über Modulationsperioden integriert und in jeder Phasenlage ein der Ladungsdifferenz entsprechender Wert a1, a2, a3, a4 ausgelesen, woraus sich wie bereits dargestellt eine Phasenverschiebung und ein entsprechender Entfernungswert ermitteln lässt.
-
In bisherigen ToF Systemen wird der 4 Phasen Algorithmus verwendet, um innerhalb eines Eindeutigkeitsbereichs die Phasenlage zu bestimmen. Bei diesem Algorithmus werden vier Stützstellen, die äquidistant im Eindeutigkeitsbereich von 0 bis 2π mit gleicher Modulationsfrequenz ermittelt und anschließend die Phasenlage der Grundwelle, die durch diese Stützstellen verläuft, berechnet. Der Eindeutigkeitsbereich wird durch einen Transformationsfaktor vom Bogenmaß in eine Distanz überführt.
-
Objekte in Abständen, die in Vielfachen dieses Eindeutigkeitsbereichs liegen (0 bis 2π), führen zu Mehrdeutigkeiten der Phasenlage. Diese Mehrdeutigkeiten können durch eine weitere Phasenmessung bzw. durch eine erneute Anwendung des 4 Phasenalgorithmus mit anderen, typischerweise einer niedrigeren Modulationsfrequenz in eine eindeutige Phasenlage überführt werden. Dieses Vorgehen impliziert demnach mindestens 8 Messungen bis ein eindeutiger Distanzwert berechnet werden kann.
-
Der Verlauf der Korrelationsfunktion bei einer Verwendung von rechteckförmigen Modulationssignalen ergibt wie gezeigt einen dreieckförmigen Verlauf der Korrelationsfunktion. In 8 sind zwei Korrelationen für unterschiedliche Frequenzen gezeigt. Die Funktion ist über der Distanz gezeichnet, um die Eindeutigkeitsbereiche und deren Wiederholung sichtbar darzustellen. Durch das Verhältnis der gewählten Modulationsfrequenzen (30MHz / 15 MHz) ist der Eindeutigkeitsbereich der maximalen Frequenz halb so groß, wie der der niedrigeren Frequenz.
-
Aktuell werden bei vielen ToF-Kameras, welche nach dem Phasen-ToF Verfahren arbeiten (z.B. PMD-Kameras) Szenerien komplett beleuchtet, d.h. FoV (field of view) ist nahezu identisch mit dem Fol (field of illumination).
Zum Ausgleich von Objektivvignettierung, Messabständen etc. wird desöfteren eine Beleuchtung mit erhöhten Intensitäten am Bildrand benutzt
-
Bei der vollständigen Beleuchtung ergeben sich folgende Probleme, welche mittels der neuen Idee vermindert bzw. gelöst werden können:
- - Übersprechen von verschiedenen Bildteilen auf jedes Pixel bedingt durch Streulicht in der Empfangsoptik (Schmutz, Kratzer), Reflexen am Sensor oder an Linsen (Beschichtungen nicht Perfekt bzw. keine 100%ige Absorption im Sensor) etc.; d.h. die Abstandsinformationen eines nahen und eines fernen Objekts überlagert sich und kann sogar dominant werden, z.B. nahes weißes Objekt (oder sogar Retroreflektor) verursacht Streulicht auf Bildbereichen, welche in der Szene weit weg und/oder nur schwach reflektierend sind. Hier kann das Streusignal sogar größer sein, als das eigentliche Messsignal.
- - Übersprechen/Überlagerung von verschiedenen Beleuchtungsanteilen schon in der Szene, d.h. ein Bildpunkt wird in der Szene sowohl direkt von der Beleuchtung der ToF Kamera beleuchtet, als auch indirekt via eines Reflexes (z.B. direkt auf Wand vs. Erst auf Fensterscheibe und dann auf Wand)
- - Übersprechen/Überlagerung von Beleuchtungsanteilen aus der Messszene (rücklaufendes Licht) und direktem Licht aus dem Sender (hinlaufendes Licht), z.B., wenn Senderstrahlung in Empfangsweg hineingekoppelt wird, etwa bei gemeinsam genutztem Fenster für Sende und Empfangsweg. Hier kann Senderlicht in das Fenster eingekoppelt werden (Schmutz, Kratzer etc.) und aus demselben Grund vor dem Objektiv wieder ausgekoppelt werden
- - Begrenzte Messreichweite aufgrund von:
- o limitierter Versorgungs- oder Kühlleistung der Beleuchtung
- o Problemen mit Augen- oder Hautsicherheit, siehe Normen/Gesetze: IEC60825-1:2007, IEC60825-1:2014, OStrV-Gesetz, RICHTLINIE 2006/25/EG DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 5. April 2006, IEC62471 Beleuchtung mit Punktlichtmuster anstelle homogenem Lichtprofil (Licht jeweils zeitlich moduliert, so dass ToF Messung möglich ist).
Der Nachteil, dass ggf. nur so viele Messpunkte nutzbar sind, wie Lichtpunkte emittiert werden, wird in Kauf genommen, da dafür zum Ausgleich anderweitige Vorteile bestehen.
-
Vorgeschlagen wird eine Strukturierte Beleuchtung für ToF und Eindeutigkeitsbereichsbestimmung Entfernungen können u.a. mittels ToF oder Triangulation bestimmt werden. Auch kombinierte Verfahren innerhalb eines Sensors finden sich im Stand der Technik, z.B. um Genauigkeiten zu erhöhen oder die Ergebnisse der Einzelmessungen überkreuz zu verifizieren.
-
Bei Triangulation sind jedoch typischerweise nicht viele Messpunkte im Vergleich zur Gesamtzahl der Pixel des Sensor üblich, da zum einen die Messauflösung stark von dem Winkel zwischen Lichtsenderichtung und Empfangsrichtung abhängt (oder umgekehrt: über wieviele Pixel kann ein einzelner Lichtpunkt laufen → je mehr, umso besser die Auflösung). Zugleich leiden Triangulationssysteme an Stabilitätsproblemen (Alterung, Temperatur, Erschütterung/Dejustage etc.)
-
Bei ToF Verfahren hat man oftmals das Problem der sog. Eindeutigkeitsbereichsbestimmung. Dies ist ein Problem bei den sog. Phasen-ToF Verfahren und liegt primär in der Periodizität der modulierten Beleuchtung und der Periodizität der Periodizität der Demodulation im Empfänger. Bei f=60 MHz hat man z.B. einen Eindeutigkeitsbereich von 2,5 m (=c/(s*f)). D.h. um Ziele in 0,2 m und 2,7 m zu unterscheiden, muss man entweder Plausibilisieren oder weitere Messungen z.B. mit weiteren Frequenzen durchführen, was aber zu Einschränkungen in der Bildrate und hohem Auswerteaufwand führt.
-
Idee ist, bei einer strukturierten ToF Beleuchtung mittels eines leichten Versatzes zwischen Beleuchtungsrichtung und Beobachtungsrichtung einen ganz schwachen Triangulationseffekt auszulösen. Ausreichend ist, wenn dieser Effekt so groß ist, dass die Eindeutigkeitsbereiche der ToF Messung bestimmt werden können. Bei Benutzung der sog. Subpixelauflösung sind sogar Versätze um Pixelbruchteile ausreichend.
-
Genutzt werden können hier Punktlichtmuster oder aber auch Streifenmuster, wobei die Streifen lediglich nicht parallel zur Triangulationsbewegung auf dem Chip sein dürfen. Vorteilhaft ist eine Anordnung, bei welcher die Lichtstreifen/Lichtpunkte in Richtung des Triangulationsversatzes einen solchen Abstand haben, dass sich benachbarte Lichtstreifen/Lichtpunkte bei allen zu erwartenden Messdistanzunterschieden nicht auf demselben Pixel überlagern können.
Wenn also ein Lichtpunkt (oder Teil eines Lichtstreifens) aufgrund von Triangulationseffekten maximal um ein Pixel wandern kann, so wäre ein Lichtpunktemuster/Lichtstreifenmuster, bei welchem bei konstanter Messdistanz das Abbild der Lichtstreifen/Lichtpunkte nur jedes dritte Pixel in Richtung des zu erwartenden Triangulationsversatzes beleuchtet vorteilhaft im Sinne von Anzahl der Messpunkte und Freiheit von Übersprechen.
In Fällen, in denen der Lichtpunkt aufgrund der Triangulation signifikant über ein oder mehrere Pixel wandert, ist ggf. eine Sensoranpassung sinnvoll. D.h. die Pixel, welche im Nahbereich beleuchtet werden können kleiner, unempfindlicher oder stärker abgedeckt sein, während die Pixel - welche erst beleuchtet werden, wenn das jeweilige Ziel weiter entfernt ist - empfindlicher, größer oder weniger abgedeckt sein können. Dies kann sogar innerhalb eines Pixels geschehen mittels eine keilförmigen Abdeckung. Hierdurch wird eine aufgrund der Messdistanz verursachte Signalstärkenschwankung (typischerweise 1/Abstand^2) vermindert.
-
Sensorpixel, die über 2 oder mehrere räumlich getrennte Kontakte/ Auslesestrukturen/ Sammelknoten etc. verfügen - wie z.B. aktuelle ToF-Empfangspixel von pmdtechnologies - können diesen Effekt sogar innerhalb eines Pixels auflösen (ähnlich wie sog. Positionsdioden). Hinreichend ist in diesem Falle, wenn die Beleuchtung eine Intensitätsstruktur aufweist, welche signifikant innerhalb der jeweiligen Pixel ist. In diesem Fall kann man sogar ohne Lücken um Beleuchtungsfeld/Bildfeld arbeiten.
-
Vorteile aller o.g. Verfahren und Vorrichtungen sind: eine große Anzahl von Pixeln bleibt im Unterschied zu klassischer Triangulation nutzbar, ToF-typische komplizierte Mehrfrequenzmessungen und -auswertungen entfallen, Messzeit und Bewegungsartefakte werden kleiner.
Alterung, Temperatureffekt, Dejustagen etc. lassen sich dadurch beheben, dass man hin und wieder - z.B. nach Zeitplan, Neustart, Detektion großer Erschütterungen oder anderen Ereignissen - die Triangulation neu kalibriert, z.B. indem man dann ToF-Mehrfrequenzmessungen durchführt.
Mögliche Ausführungsbeispiele:
- a) Strukturierte ToF-Beleuchtung mit einer Beleuchtungsrichtung, welche einen nur geringen Versatz zur Beobachtungspfad aufweist, so dass die ersten Eindeutigkeitsbereiche der ToF-Messung identifiziert werden können.
- b) wie a), wobei die Lichtstruktur einzelne Lichtpunkte sind
- c) wie a), wobei die Lichtstruktur Streifen sind
- d) wie b) bzw. c) wobei die Intensität der abgebildeten Beleuchtung auf dem Detektorchip innerhalb eines Pixels signifikant variiert
- e) automatische („in system“) Kalibrierung der triangulationsbasierten Eindeutigkeitsbereichsbestimmung mittels eines anderen Verfahrens, z.B. Mehrfrequenz- ToF
- f) Sensor mit entsprechend der Beleuchtung und Triangulationsrichtung angepassten Pixeln mit unterschiedlichen Größen, Empfindlichkeiten oder Abdeckungen
- g) Sensor mit Pixeln, welche entsprechend der Beleuchtung und Triangulationsrichtung angepasste räumliche Empfindlichkeiten, Dotierungen oder Abdeckungen aufweisen
- h) Sensor welcher zugleich Pixel wie unter g) und h) aufweist
-
8 zeigt einen triangulationsbedingten Lichtpunktabbildungsversatz für große Entfernungsänderungen des Zieles (einige Meter), wenn der Versatz (sog. Basislänge) zwischen Sender und Empfänger nur gering ist.
-
9 eine mögliche Sensoranpassung, um die mit dem entfernungsabhängigen Lichtpunktversatz einhergehenden Signaländerung auszugleichen.
-
10 zeigt einen Parallelversatz der optischen Achsen von Sender S und Empfänger E bei Verwendung von Linienmustern.
triangulationsuntypisch wird selbst auf eine Zieldistanzänderung von einigen Metern hin ein Versatz des empfangenen Lichtsignals um nur 1 Pixel oder sogar nur im Bereich der Subpixelauflösung angestrebt.
-
11 zeigt einen triangulationsuntypischen kleinen Parallelversatz der optischen Achsen von Sender S und Empfänger E bei Verwendung von Mustern, deren abgebildete Intensitäten auf dem Sensor innerhalb eines jeden Pixels variieren. Angestrebt wird ein Versatz um weniger als 1 Pixel, selbst bei Zieldistanzänderungen von einigen Metern.
Vorteilhafterweise weist das empfangene Bild keine Beleuchtungslücken auf, d.h. alle Pixel sind nutzbar.
-
Bezugszeichenliste
-
- 1
- Lichtlaufzeitkamerasystem
- 10
- Beleuchtungsmodul
- 12
- Beleuchtung
- 20
- Empfänger, Lichtlaufzeitkamera
- 22
- Lichtlaufzeitsensor
- 27
- Auswerteeinheit
- 30
- Modulator
- 35
- Phasenschieber, Beleuchtungsphasenschieber
- 38
- Modulationssteuergerät
- 40
- Objekt
- 400
- Auswerteeinheit
- φ, Δφ(tL)
- laufzeitbedingte Phasenverschiebung
- φvar
- Phasenlage
- φ0
- Basisphase
- Mo
- Modulationssignal
- p1
- erste Phase
- p2
- zweite Phase
- Sp1
- Sendesignal mit erster Phase
- Sp2
- Empfangssignal mit zweiter Phase
- Ga, Gb
- Integrationsknoten
- Ua, Ub
- Spannungen an den Integrationsknoten
- ΔU
- Spannungsdifferenz
- Δq
- Ladungsdifferenz
- d
- Objektdistanz
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 19704496 A1 [0002, 0003, 0009]
- DE 19704496 C2 [0017]
- DE 102004016626 A1 [0020]
- DE 102005056774 A1 [0020]