-
Die Erfindung betrifft ein Lichtlaufzeitkamerasystem nach Gattung des unabhängigen Anspruchs.
-
Mit Lichtlaufzeitkamerasystem sollen hier insbesondere Systeme umfasst sein, die Entfernungen direkt aus der Lichtlaufzeit ermitteln oder die Lichtlaufzeit aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet.
-
Aus der
DE 197 04 496 A1 ist ferner die Bestimmung einer Entfernung bzw. einer entsprechenden Phasenverschiebung des von einem Objekt reflektierten Lichts bekannt. Insbesondere wird offenbart, die Sendermodulation gezielt um 90°, 180° oder 270° zu verschieben, um aus diesen vier Phasenmessungen über eine arctan-Funktion eine Phasenverschiebung und somit eine Entfernung zu bestimmen.
-
Aufgabe der Erfindung ist es, die Entfernungsmessung eines Lichtlaufzeitkamerasystems zu verbessern.
-
Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Lichtlaufzeitkamerasystem und Verfahren nach Gattung der unabhängigen Ansprüche gelöst.
-
Vorteilhaft ist ein Lichtlaufzeitkamerasystem vorgesehen, mit einer Beleuchtung zur Aussendung eines amplitudenmodulierten Punktlichtmusters,
mit einem Lichtlaufzeitsensor bestehend aus mehreren Lichtlaufzeitpixeln zum Empfang des ausgesendeten und von einer Szenerie reflektierten Lichts,
wobei Entfernungen aus einer Phasenverschiebung zwischen dem ausgesendeten und empfangenen Licht bestimmt werden,
wobei die empfangenen Lichtpunkte über eine Optik auf dem Lichtlaufzeitsensor bzw. auf den Lichtlaufzeitpixeln abgebildet werden,
wobei sich für jedes Lichtlaufzeitpixel ein Pixelsignal als Summe aus einem Nutzsignal und einem Störsignal ergibt,
wobei sich das Störsignal eines von einem Lichtpunkt beleuchteten Pixels durch ein Übersprechen benachbarter Lichtpunkte bestimmt,
wobei die Abstände der Lichtpunkte des Punktlichtmusters derart gewählt sind, dass wenigstens zwei Pixel gefunden werden können, bei denen ein Nutzlichtsignalunterschied zwischen diesen zwei Pixeln mindestens um einen Faktor 16 größer ist als ein Störsignalunterschied zwischen diesen zwei Pixeln.
-
Während zur Bereitstellung eines ausreichenden Störabstands üblicherweise Punktspreizfunktionen der einzelnen Lichtpunkte betrachtet werden, ist es erfindungsgemäß vorgesehen, auf Signalunterschiede abzustellen. Im Unterschied zum üblichen Vorgehen kommt es hier nicht auf die genaue Kenntnis der Punktspreizfunktion an.
-
Besonders vorteilhaft ist es, für die Entfernungsbestimmung nur Pixelpaare heranzuziehen, deren Nutzlichtsignalunterschiede das vorgenannte Kriterium |ΔN| > 16 * |ΔS| erfüllen.
-
Bevorzugt wird für die Entfernungsbestimmung eine vektorielle Differenz der Pixelsignale für ein jedes Pixelpaar gebildet, wobei eine Entfernung ausgehend von dieser Differenz ermittelt wird.
-
In einer weiteren Ausgestaltung ist es vorgesehen ein räumliches Intensitätsprofil des Punktlichtmusters derart einzustellen, dass das Abbild der Lichtpunkte inklusive der eingestellten Bildschärfe und Punktspreizfunktion des Systems ein für die Auswertung optimiertes Signalprofil für jeden Lichtpunkt erzeugt.
-
Vorteilhaft ist es weiterhin vorgesehen, Signale aus mehreren Empfangspixeln zu mitteln, so dass |ΔN| > |ΔS| * 16 weiterhin erfüllt ist.
-
Nützlich ist es, wenn gesättigte Pixel nicht beachtet werden.
-
Vorteilhaft werden ein oder mehrere Pixel mit niedrigeren Intensitäten mit zumeist größerem Abstand zum Mittelpunkt des Abbildes des Lichtpunktes gemittelt, welche aber noch nicht von Signalen benachbarter Abbilder anderer Lichtpunkte überlagert/beeinflusst sind.
-
Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
-
Es zeigen:
- 1 schematisch ein Lichtlaufzeitkamerasystem,
- 2 eine modulierte Integration erzeugter Ladungsträger,
- 3 einen Querschnitt durch einen PMD-Lichtlaufzeitsensor mit Potentialverteilung,
- 4 einen zeitlichen Verlauf der Integrationsspannungen an einem Lichtlaufzeitpixel,
- 5 Verläufe der Ladungsintegration abhängig von der Phasenverschiebung und -lage,
- 6 eine Relation der Phasenverschiebung in einem IQ-Diagramm,
- 7 einen Modulationsverlauf über vier Phasenlagen,
- 8 eine Überlagerung eines starken Nutzsignals mit eine Störsignal,
- 9 eine Überlagerung eines schwachen Nutzsignals mit einem Störsignal,
- 10 eine erfindungsgemäße Umrechnung auf einen störungsfreien Nutzsignalvektor,
- 11 eine vereinfache Darstellung der 10,
- 12 eine Punktspreizfunktion und Differenzen zweier abgebildeter Lichtpunkte,
- 13 eine Darstellung gemäß 12 mit eine zusätzlich Untergrund-Störanteil.
-
Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
-
1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer Lichtlaufzeitkamera, wie sie beispielsweise aus der
DE 197 04 496 A1 bekannt ist.
-
Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem Lichtlaufzeitsensor 22.
-
Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel-Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.
-
Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Lichtlaufzeitsensor 22 über einen Modulator 30 gemeinsam mit einem bestimmten Modulationssignal Mo mit einer Basisphasenlage φ0 beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φ0 des Modulationssignals M0 der Lichtquelle 12 um definierte Phasenlagen φvar verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von φvar = 0°, 90°, 180°, 270° verwendet.
-
Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein intensitätsmoduliertes Signal Sp1 mit der ersten Phasenlage p1 bzw. p1 = φ0 + φvar aus. Dieses Signal Sp1 bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben Δφ(tL) mit einer zweiten Phasenlage p2 = φ0 + φvar + Δφ(tL) als Empfangssignal Sp2 auf den Lichtlaufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal Mo mit dem empfangenen Signal Sp2 gemischt, wobei aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.
-
Ferner weist das System ein Modulationssteuergerät 27 auf, das in Abhängigkeit der vorliegenden Messaufgabe die Phasenlage φvar das Modulationssignal M0 verändert und/oder über einen Frequenzoszillator 38 die Modulationsfrequenz einstellt.
-
Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden. Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.
-
Das Grundprinzip der Phasenmessung ist schematisch in 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals M0 mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal SP2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(tL) auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals M0 in einem ersten Akkumulationsgate Ga und in einer um 180° verschobenen Phasenlage M0 + 180° in einem zweiten Akkumulationsgate Gb. Aus dem Verhältnis der im ersten und zweiten Gate Ga, Gb gesammelten Ladungen qa, qb lässt sich die Phasenverschiebung Δφ(tL) und somit eine Entfernung d des Objekts bestimmen.
-
3 zeigt einen Querschnitt durch einen Pixel eines Photomischdetektors wie er beispielsweise aus der
DE 197 04 496 C2 bekannt ist. Die Modulationsphotogates Gam, G0, Gbm bilden den lichtsensitiven Bereich eines PMD-Pixels. Entsprechend der an den Modulationsgates Gam, G0, Gbm angelegten Spannung werden die photonisch erzeugten Ladungen q entweder zum einen oder zum anderen Akkumulationsgate bzw. Integrationsknoten
Ga,
Gb gelenkt. Die Integrationsknoten können als Gate oder auch als Diode ausgebildet sein.
-
3b zeigt einen Potenzialverlauf, bei dem die Ladungen q in Richtung des ersten Integrationskonten Ga abfliesen, während das Potenzial gemäß 3c die Ladung q in Richtung des zweiten Integrationsknoten Gb fließen lässt. Die Potenziale werden entsprechend der anliegenden Modulationssignale vorgegeben. Je nach Anwendungsfall liegen die Modulationsfrequenzen vorzugsweise in einem Bereich von 1 bis 100 MHz. Bei einer Modulationsfrequenz von beispielsweise 1 MHz ergibt sich eine Periodendauer von einer Mikrosekunde, so dass das Modulationspotenzial dementsprechend alle 500 Nanosekunden wechselt.
-
In 3a ist ferner eine Ausleseeinheit 400 dargestellt, die gegebenenfalls bereits Bestandteil eines als CMOS ausgebildeten PMD-Lichtlaufzeitsensors sein kann. Die als Kapazitäten bzw. Dioden ausgebildeten Integrationsknoten Ga, Gb integrieren die photonisch erzeugten Ladungen über eine Vielzahl von Modulationsperioden. In bekannter Weise kann die dann an den Gates Ga, Gb anliegende Spannung beispielsweise über die Ausleseeinheit 400 hochohmig abgegriffen werden. Die Integrationszeiten sind vorzugsweise so zu wählen, dass für die zu erwartende Lichtmenge der Lichtlaufzeitsensor bzw. die Integrationsknoten und/oder die lichtsensitiven Bereiche nicht in Sättigung geraten.
-
In
4 ist ein typischer zeitlicher Verlauf der an den Integrationsknoten
Ga,
Gb während einer Phasenmessung anliegenden Spannung
Ua ,
Ub . Ausgehend von einer nach einem Reset an den Integrationsknoten anliegenden positiven Resetspannung U
DRS fällt die Spannung aufgrund der akkumulierten Photoelektronen an beiden Integrationsknoten
Ga,
Gb ab. Entsprechend der Phasenverschiebung
Δφ(tL) des empfangenen Signals fallen die Spannungen an den Integrationsknoten
Ga,
Gb unterschiedlich stark ab. Zum Ende der Integrationszeit t
int wird die an den Integrationsknoten
Ga,
Gb anliegenden Spannung
Ua ,
Ub ausgelesen. Die Spannungsdifferenz
ΔU der beiden Spannungen
Ua ,
Ub entspricht in bekannter Weise der Differenz
Δq der an den Integrationsknoten
Ga,
Gb akkumulierten Ladung q. Die Integrationszeit t
int ist vorzugsweise so bemessen, dass kein Integrationsknoten
Ga,
Gb bei einer üblichen Belichtung sein Sättigungspotential Us erreicht. Für größere Signalstärken kann auch eine so genannte SBI-Schaltung zur Signalkompensation vorgesehen sein. Derartige Schaltungen sind beispielsweise aus der
DE 10 2004 016 626 A1 oder
DE 10 2005 056 774 A1 bekannt.
-
5a und 5b zeigen Verläufe der normierten Ladungsdifferenz Δq = qa - qb / (qa + qb) in Abhängigkeit der Phasenverschiebung Δφ(tL) des empfangenen Lichtsignals Sp2 mit unterschiedlichen Phasenlagen. Die 5a zeigt einen Verlauf für eine unverschobene Modulationsphase M0 mit einer Phasenlage φvar = 0°.
-
Bei einem Auftreffen des Signals SP2 ohne Phasenverschiebung also Δφ(tL) = 0°, beispielsweise, wenn das Sendesignal Sp1 direkt auf den Sensor gelenkt wird, sind die Phasen der Modulation M0 und vom empfangenen Signal Sp2 identisch, so dass alle erzeugten Ladungsträger phasensynchron am ersten Integrationsknoten Ga erfasst werden und somit ein maximales Differenzsignal mit Δq = 1 anliegt.
-
Mit zunehmender Phasenverschiebung nimmt die am ersten Integrationsknoten Ga akkumulierte Ladung ab und am zweiten Integrationsknoten Gb zu. Bei einer Phasenverschiebung von Δφ(tL) = 90° sind die Ladungsträger qa, qb an beiden Integrationsknoten Ga, Gb gleich verteilt und die Ladungsdifferenz somit Null und nach 180° Phasenverschiebung „-1“. Mit weiter zunehmender Phasenverschiebung nimmt die Ladung am ersten Gate Ga wieder zu, so dass im Ergebnis die Ladungsdifferenz wieder ansteigt, um dann bei 360° bzw. 0° wieder ein Maximum zu erreichen.
-
Mathematisch handelt es sich hierbei um eine Korrelationsfunktion des empfangenen Signals
Sp2 mit dem modulierenden Signal
M0 .
-
Bei einer Modulation mit einem Rechtecksignal ergibt sich wie bereits dargestellt als Korrelationsfunktion eine Dreiecksfunktion. Bei einer Modulation mit beispielsweise einem Sinussignal wäre das Ergebnis eine Kosinusfunktion.
-
Wie 5a zeigt, ist eine Messung der Phase mit einer Phasenlage nur bis zu einer Phasenverschiebung Δφ(tL) ≤ 180° eindeutig.
-
Zur maximalen Erfassung der Phasenverschiebung ist beispielsweise das IQ(Inphase-Quadratur) Verfahren bekannt, bei dem zwei Messungen mit um 90° verschobenen Phasenlagen durchgeführt werden, also beispielsweise mit der Phasenlage φvar = 0° und φvar = 90°. Das Ergebnis einer Messung mit der Phasenlage φvar = 90° ist in 5b dargestellt.
-
Die Beziehung dieser beiden Kurven lässt sich in bekannter Weise beispielsweise für sinusförmige Kurvenverläufe in einem IQ-Diagramm gem. 6 darstellen. In erster Näherung ist diese Darstellung ohne weiteres auch für die dargestellten Dreiecksfunktionen anwendbar.
-
Der Phasenwinkel lässt sich dann in bekannter Weise über eine arctan-Funktion bzw. arctan2-Funktion bestimmen:
-
Aufgrund des linearen Zusammenhangs zwischen Ladung und Spannung, lässt sich der Phasenwinkel ebenso über die Spannungsdifferenzen bestimmen:
-
Um beispielsweise Asymmetrien des Sensors zu kompensieren, können zusätzliche um 180° verschobene Phasenmessungen durchgeführt werden, so dass sich im Ergebnis der Phasenwinkel wie folgt bestimmen lässt.
-
Oder verkürzt formuliert:
-
Wobei die Indizes die jeweilige Phasenlage der Differenzen a
i andeuten, mit
-
Aus der Phasenverschiebung
φ bzw.
Δφ(tL) lassen sich für Objektabstände
d, die kleiner sind als die halbe Wellenlänge λ der Modulationsfrequenz d ≤ λ/2, in bekannter Weise ein Abstand bestimmen.
-
In 7 ist ein vollständiger Satz einer Entfernungsmessung mit vier Phasenlagen von 0°, 90°, 180° und 270° dargestellt. Im dargestellten Fall werden Ladungsträger jeweils über Modulationsperioden integriert und in jeder Phasenlage ein der Ladungsdifferenz entsprechender Wert a1, a2, a3, a4 ausgelesen, woraus sich wie bereits dargestellt eine Phasenverschiebung und ein entsprechender Entfernungswert ermitteln lässt.
-
In bisherigen ToF Systemen wird der 4 Phasen Algorithmus verwendet, um innerhalb eines Eindeutigkeitsbereichs die Phasenlage zu bestimmen. Bei diesem Algorithmus werden vier Stützstellen, die äquidistant im Eindeutigkeitsbereich von 0 bis 2π mit gleicher Modulationsfrequenz ermittelt und anschließend die Phasenlage der Grundwelle, die durch diese Stützstellen verläuft, berechnet. Der Eindeutigkeitsbereich wird durch einen Transformationsfaktor vom Bogenmaß in eine Distanz überführt.
-
Objekte in Abständen, die in Vielfachen dieses Eindeutigkeitsbereichs liegen (0 bis 2TT), führen zu Mehrdeutigkeiten der Phasenlage. Diese Mehrdeutigkeiten können durch eine weitere Phasenmessung bzw. durch eine erneute Anwendung des 4 Phasenalgorithmus mit anderen, typischerweise einer niedrigeren Modulationsfrequenz in eine eindeutige Phasenlage überführt werden. Dieses Vorgehen impliziert demnach mindestens 8 Messungen bis ein eindeutiger Distanzwert berechnet werden kann.
-
Der Verlauf der Korrelationsfunktion bei einer Verwendung von rechteckförmigen Modulationssignalen ergibt, wie gezeigt, einen dreieckförmigen Verlauf der Korrelationsfunktion. In 8 sind zwei Korrelationen für unterschiedliche Frequenzen gezeigt. Die Funktion ist über der Distanz gezeichnet, um die Eindeutigkeitsbereiche und deren Wiederholung sichtbar darzustellen. Durch das Verhältnis der gewählten Modulationsfrequenzen (30MHz / 15 MHz) ist der Eindeutigkeitsbereich der maximalen Frequenz halb so groß, wie der der niedrigeren Frequenz.
-
Aktuell werden bei vielen ToF-Kameras, welche nach dem Phasen-ToF Verfahren arbeiten (z.B. PMD-Kameras) Szenerien komplett beleuchtet, d.h. das Sichtfeld FoV (field of view) ist nahezu identisch mit dem Beleuchtungsfeld Fol (field of illumination).
-
Zum Ausgleich von Objektivvignettierungen, Messabständen etc. wird häufig eine Beleuchtung mit erhöhten Intensitäten am Bildrand benutzt
-
Bei der vollständigen Beleuchtung ergeben sich folgende Probleme, welche mittels mit dem erfindungsgemäßen Vorgehen vermindert bzw. gelöst werden können:
- a) Übersprechen von verschiedenen Bildteilen auf jedes Pixel bedingt durch Streulicht in der Empfangsoptik beispielsweise durch Schmutz oder Kratzer, Reflexen am Sensor oder an Linsen etc.; d.h. die Abstandsinformationen eines nahen und eines fernen Objekts überlagern sich und und können im Einzelfall sogar dominant werden, beispielsweise kann ein nahes weißes Objekt Streulicht in Bildbereichen verursachen, die in der Szene weit weg und/oder nur schwach reflektierend sind.
Hier kann im ungünstigen Fall das Streusignal sogar größer sein, als das eigentliche Messsignal.
- b) Übersprechen/Überlagerung von verschiedenen Beleuchtungsanteilen schon in der Szene, d.h. ein Bildpunkt wird in der Szene sowohl direkt von der Beleuchtung der ToF Kamera beleuchtet als auch indirekt via eines Reflexes
- c) Übersprechen/Überlagerung von Beleuchtungsanteilen aus der Messszene (rücklaufendes Licht) und direktem Licht aus dem Sender (hinlaufendes Licht), beispielsweise wenn Senderstrahlung in den Empfangsweg hineingekoppelt wird, etwa bei einem gemeinsam genutztem Fenster für den Sende und Empfangsweg. Hier kann Senderlicht beispielsweise über Schmutz oder Kratzer in das Fenster eingekoppelt werden und aus demselben Grund vor dem Objektiv wieder ausgekoppelt werden.
- d) Begrenzte Messreichweite beispielsweise aufgrund von limitierter Versorgungs- oder Kühlleistung der Beleuchtung oder aufgrund bestehender Normen/Gesetze: IEC60825-1:2007, IEC60825-1:2014, OStrV-Gesetz, RICHTLINIE 2006/25/EG DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 5. April 2006, IEC62471 die beispielsweise aufgrund notwendiger Augen- und/oder Hautsicherheit einzhalten sind.
-
Erfindungsgemäß ist anstelle eines homogenem Lichtprofil ein Punktlichtmuster vorgesehen, das insbesondere auch zeitlich moduliert werden kann, um ggf. ToF-Messungen durchführen zu können.
-
Vorgeschlagen wird ein Verfahren, um Messverfälschungen insbesondere bedingt durch Mehrwegeausbreitung, Streulicht, direkte Sendereinstrahlung zu kompensieren. Unter der Annahme, dass das verfälschende Signal in Intensität (Amplitude) und Phase über größere Sensorbereiche (mind. 2 Pixel) nahezu konstant ist, kann das gesuchte Messsignal um die Verfälschung befreit werden, vorausgesetzt, das gesuchte Messsignal ist auf mindestens zwei Pixeln mit jeweils gleicher Phase, aber verschiedener Intensität (Amplitude) detektierbar. Dies funktioniert umso besser, je größer die Intensitätsunterschiede des gesuchten Messsignals sind.
-
Weisen Nutzsignal und Streulicht eine Phasendifferenz von 90° auf, so wird die Phasenlage des Nutzsignals maximal verfälscht. Die Abweichung bzw. Phasenmessfehler Δφ der gemessenen Phasenlage von der wahren Phasenlage des reinen Nutzsignals beträgt:
-
Substrahiert man nun die Signale zweier benachbarter Pixel mit einem Nutzsignalunterschied ΔN und einem Streulichtsignalunterschied ΔS, wobei die Nutz- und Streulichtsignale jeweils dieselbe Phasenlage aufweisen müssen, so ergibt sich eine Phasenmessfehler Δφ von
-
Ist beispielsweise Streulichtsignalunterschied ΔS < 0,0626 * ΔN so ergibt sich ein Winkel- bzw. Distanzmessfehler von < 1 %.
-
Erfindungsgemäß ist also nicht der absolute Signalpegel, insbesondere eine geringe Störlichtamplitude, entscheidend, sondern ein geringer Streulichtgradient.
-
Bervorzugt ist ein System gewünscht mit einem Distanzmessfehler von kleiner 1 %, so dass der Streulichtunterschied von Pixel zu Pixel kleiner 6,3 % des Nutzlichtunterschieds desselben Pixelpaares liegen sollte.
-
In bekannter Weise ist die atan-Funktion hin zu kleineren Werten im Wesentlichen linear, d.h. wenn ein Messfehler durch Übersprechen von 2 % akzeptabel ist, so ist ein System bevorzugt, bei dem der Streulichtunterschied zwischen zwei Pixeln kleiner als 13,5 % des Nutzsignalunterschieds zwischen denselben Pixeln beträgt.
-
Das gesuchte Messsignal kann ermittelt werden, indem die Real- und Imaginärteile zweier solcher Pixel voneinander subtrahiert werden. Anschliessend können aus diesen Real- und Imaginärteilen in gewohnter Weise die gesuchte Signalphase (und damit der Messabstand) ermittelt werden.
-
Erreicht wird dies, indem anstelle eines homogenen Lichtprofiles ein Punktlichtmuster emittiert wird, bei welchem die einzelnen Lichtpunkte mindestens so weit entfernt liegen, dass ihre Abbildungen sich unter Beachtung der Punktspreizfunktion (Point spread function PSF) des Objektivs und des Sensors nicht mehr signifikant überlagern, d.h. dass der Phasenmessfehler unter einem vorgebenen Grenzwert GW, vorzugsweise kleiner 1 % bleibt. Auf eine Kentniss der genauen Punktspreizfunktion PSF kommt es nicht darauf an. Das erfindungsgemäße Vorgehen funktioniert auch dann, wenn sich die Punktspreizfunktion im Laufe des Betriebs, beispielsweise durch Schmutz, Kratzer etc., an den Linsen ändert.
-
Hierdurch wird erreicht, dass mehrere Empfangspixel lediglich das gesuchte Messignal von einem Lichtpunkt erhalten, jedoch mit verschiedenen Intensitäten (Amplituden), wobei das unerwünschte, mitdetektierte Störsignal nahezu konstant auf diesen Pixeln ist.
-
Erfindungsgemäß wird ein Lichtlaufzeitkamerasystem vorgeschlagen, mit einer ToF Lichtquelle, welche ein Punktlichtmuster aufweist, bei welchem die Lichtpunkte einen Mindestabstand aufweisen, so dass der Gradient der Überlagerungs- und Streulichtsignale im Vergleich zum Nutzsignalgradienten entsprechend der eingestellten Bildschärfe, sowie Punktspreizfunktion von Empfangsoptik und Detektorchip einen gewissen Wert nicht überschreitet. Welches Gradientenverhältnis hierbei noch akzeptabel ist, ist beispielsweise der Formel entsprechend der vorigen Seite zu entnehmen.
-
In einer weiteren Ausgestaltung ist es vorgesehen, das räumliche Intensitätsprofil eines jeden Lichtpunktes derart anzupassen, dass das Abbild der Lichtpunkte inkl. der eingestellten Bildschärfe und Punktspreizfunktion des Systems ein für die Auswertung optimiertes Signalprofil für jeden Lichtpunkt auf den Pixeln ergibt.
-
Ferner ist eine Auswertung der Messsignale des ToF-Systems vorgesehen, wobei die Signale aus mehreren Empfangspixeln mit hohem Signalpegel gemittelt werden und mehrere Empfangspixel mit niedrigem Signalpegel gemittelt werden, so dass danach die Bedingung |ΔS| < 0,0626 * |ΔN| für diese beiden Mittelungsgruppen immer noch erfüllt ist, um z.B. andere Rauscheffekte (thermisches Rauschen im Sensor, Schrotrauschen der Photonen) herauszumitteln.
-
Hierbei können zudem beispielsweise gesättigte Pixel ausgelassen werden
-
Ferner können ein oder mehrere Pixel mit niedrigeren Intensitäten mit zumeist größerem Abstand zum Mittelpunkt des Abbildes des Lichtpunktes gemittelt werden, welche aber noch nicht von Signalen benachbarter Abbilder anderer Lichtpunkte überlagert/beeinflusst sind
-
Weiterhin kann die Vorrichtung und das Verfahren dazu benutzt, um weiträumige Störsignale aus den Messwerten herauszurechnen.
-
8 zeigt ein Beispiel, bei dem ein starkes Messsignal / Nutzsignal N von einem Störsignal S überlagert wird, resultiert daraus das starke detektierte Pixelsignal P, welches die falsche Phasenlage und somit eine falsche ToF-Distanz widerspiegelt.
-
Analog resultiert, wie in 9 gezeigt, aus einem schwächeren Messsignal / Nutzsignal N und einem gleichen überlagerten Störsignal S ein schwächeres detektiertes Pixelsignal P, dessen Phasenlage - und somit ToF Distanz - noch stärker verfälscht ist als beim stärkeren, überlagertem Pixelsignal.
-
Werden, wie in 10 gezeigt, das starke Pixelsignal das schwache detektierte Pixelsignal P voneinander subtrahiert, so resultiert daraus ein störsignalfreier Messsignalvektor / Nutzsignalvektor NV, dessen Phasenlage φ die gesuchte störsignalfreie ToF Messdistanz ist (gestrichelter Pfeil).
-
12 zeigt im oberen Teil exemplarisch Punktspreizfunktionen PSF1, 2 für zwei auf einem Sensor auf die Pixel 1 und 6 abgebildetete Lichtpunkte. Dies lässt sich grundsätzlich auf beliebig viele Lichtpunkte erweitern. Das Signal in Pixel 1 enthält neben dem Nutzsignal N aus PSF1 des ersten Lichtpunkts auch einen Störsignalanteil S aus der PSF2 des zweiten Lichtpunktes am Ort des Pixel 6.
-
Im unteren Teil der Figur sind die Differenzsignale |AN|=|N(Pixel1) - N(Pixeln)| und das 16-fach überhöhte Differenzsignal |ΔS|=|S(1) - S(n)| dargestellt. Für Pixel für die die Bedingung |ΔN| > 16 * |ΔS| gilt bedeutet das, dass die Subtraktion von Pixel1 und einem dieser Pixel und anschließender Auswertung hinsichtlich Phase/Distanz der Störsignaleinfluss die Phase/Distanz um weniger als 1% beeinflusst. Der gleiche Rechenansatz kann auch für andere Bezugspixel genutzt werden, z.B. Pixel2 oder Pixel3 anstelle Pixel1. Also S(1) = PSF2(1) oder allgemein S(n) = PSF2(n) bzw. S(n) = ΣPSFx(n) (n=Pixelnummer). Die Punktspreizfunktion PSF2 des zweiten Lichtspots ist für den ersten Lichtspot ein Störsignal.
-
Erfindungsgemäß werden dann nur Pixel herangezogen, deren betragsmäßige Nutzlichtdifferenz |ΔN| 16mal größer ist als die betragsmäßige Störsignaldifferenz |ΔS|. Es sei bemerkt, dass erfindungsgemäß die Verteilung der Lichtpunkte so gewählt wird, dass wenigsten zwei Pixel auffindbar sind, die dieses Kriterium erfüllen.
-
Im vorliegenden Fall sei bemerkt, dass die Nutzlichtdifferenz |ΔN| zwischen Pixel 1 und 2 sehr gering ist, so dass |ΔN| < 16 * |ΔS| und das Kriterium nicht erfüllt ist. Zwischen Pixel 1 und 3 hingegen ist das Kriterium erfüllt und ein störungsfreier Nutzsignalvektor NV und eine störungsfreie Phasenverschiebung φ bzw. Distanz kann berechnet werden.
-
13 zeigt den Fall wie in 12 dar, jedoch mit einem zusätzlichen Untergrund UG, welcher über kleinere Pixelbereiche nicht stark schwankt. Solche Untergrundverläufe sind typisch für optische Systeme, bei denen Linsen oder Schutzfenster verschmutzt, verkratzt oder sonst wie gealtert sind (UV-aktivierte Farbzentren).
-
Durch die Subtraktion fällt dieser Untergrund jedoch nahezu heraus:
-
Somit führt auch hier die Erfüllung der Bedingung, dass die Subtraktion zweier Pixelsignale die Bedingung |ΔN| > 16 * |ΔS| erfüllt, dazu, dass der störsignalinduzierte Messfehler unter 1% bleibt. Auch diese Darstellung kann auf beliebig viele Lichtpunkte erweitert werden. Hierbei bleibt dann das Nutzsignal gleich, jedoch ist das Störsignal eine Überlagerung der einzelnen PSF-Funktionen.
wobei die Punktspreizfunktion PSF2 des zweiten Lichtspot und der allgemeine Untergrund UG für den ersten Lichtspot ein Störsignal sind.
-
Für mehr als zwei Spots ist über alle benachbarten PSF zu summieren:
-
Aus 12 und 13 ist erkennbar, dass der Abstand der Lichtpunkte so gewählt werden muss, dass Pixelbereiche verbleiben, die die Bedingung |ΔN| > 16 * |ΔS| erfüllen.
-
Es sei bemerkt, dass das Punktemuster im Vorfeld anhand von Versuchen mit vernachlässigbaren Störlichtanteilen, analytischen Betrachtungen und/oder Simulationen bestimmt wird. Beim Einsatz des Lichtlaufzeitkamerasystems wird das vorbestimmte Punktemuster verwendet. Es kann grundsätzlich auch vorgesehen sein, dass mehrere Punktemuster, die das erfindungsgemäße Kriterium erfüllen, zur Verfügung stehen und zwischen diesen Punktemustern gewählt werden kann.
-
Beim Betrieb der Lichtlaufzeitkamera mit dem erfindungsgemäßen Punktemuster ist dann im Vorfeld bekannt, welche Pixel im Bereich der auf dem Sensor abgebildeten Lichtpunkte das erfindungsgemäße Kriterium erfüllen, so dass nur diese Pixel für die Entfernungsbestimmung herangezogen werden.
-
Die Entfernungsbestimmung erfolgt dann wie bereits zu
10 und
11 beschrieben derart, dass das schwache Pixelsignal P
schwach vom starken Pixelsignal P
stark vektoriell abgezogen wird.
-
Aus der Phasenlagen φ des störungsfreien Nutzsignalvektors NV kann dann eine störungsfrei Distanz d bestimmt werden.
-
Bezugszeichenliste
-
- 1
- Lichtlaufzeitkamerasystem
- 10
- Beleuchtungsmodul
- 12
- Beleuchtung
- 20
- Empfänger, Lichtlaufzeitkamera
- 22
- Lichtlaufzeitsensor
- 27
- Auswerteeinheit
- 30
- Modulator
- 35
- Phasenschieber, Beleuchtungsphasenschieber
- 38
- Modulationssteuergerät
- 40
- Objekt
- 400
- Auswerteeinheit
- φ, Δφ(tL)
- laufzeitbedingte Phasenverschiebung
- φvar
- Phasenlage
- φ0
- Basisphase
- M0
- Modulationssignal
- p1
- erste Phase
- p2
- zweite Phase
- Sp1
- Sendesignal mit erster Phase
- Sp2
- Empfangssignal mit zweiter Phase
- Ga, Gb
- Integrationsknoten
- Ua, Ub
- Spannungen an den Integrationsknoten
- ΔU
- Spannungsdifferenz
- Δq
- Ladungsdifferenz
- d
- Objektdistanz
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 19704496 A1 [0003, 0017]
- DE 19704496 C2 [0025]
- DE 102004016626 A1 [0028]
- DE 102005056774 A1 [0028]