DE60029182T2 - Verfahren zur eindeutigen Abstandsschätzung - Google Patents

Verfahren zur eindeutigen Abstandsschätzung Download PDF

Info

Publication number
DE60029182T2
DE60029182T2 DE60029182T DE60029182T DE60029182T2 DE 60029182 T2 DE60029182 T2 DE 60029182T2 DE 60029182 T DE60029182 T DE 60029182T DE 60029182 T DE60029182 T DE 60029182T DE 60029182 T2 DE60029182 T2 DE 60029182T2
Authority
DE
Germany
Prior art keywords
phase
image
ambiguity
phase image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60029182T
Other languages
English (en)
Other versions
DE60029182D1 (de
Inventor
Eastman Kodak Company Nathan D. Rochester Cahill
Eastman Kodak Company Lawrence A. Rochester Ray
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ITT Manufacturing Enterprises LLC
Original Assignee
ITT Manufacturing Enterprises LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ITT Manufacturing Enterprises LLC filed Critical ITT Manufacturing Enterprises LLC
Application granted granted Critical
Publication of DE60029182D1 publication Critical patent/DE60029182D1/de
Publication of DE60029182T2 publication Critical patent/DE60029182T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)

Description

  • Die Erfindung betrifft allgemein das Gebiet der Verarbeitung von Entfernungsabbildungen, die von einem Entfernungsabbildungssystem erfasst werden, und insbesondere die Berechnung und das Unwrapping von Phasenabbildungen, die von einem scannerfreien Laserradar-Entfernungsabbildungssystem erfasst werden.
  • In dem US Patent 4,935,616 wird ein scannerfreies Laserradar- Entfernungsabbildungssystem beschrieben. Das darin offenbarte System beleuchtet eine Objektszene mit einer amplitudenmodulierten Laserquelle, wobei die Amplitudenmodulation in der Größenordnung von 10 MHz ist. Der Bildaufnahmeabschnitt des Systems umfasst eine Mikrokanalplatte, die in der Lage ist, das von der Objektszene reflektierte Licht zu modulieren. Die Phasenverschiebung der von der Objektszene reflektierten Intensitätsmodulation kann berechnet werden durch Erfassen zweier Bilder, einem ohne Modulation des optischen Signals und einem anderen, bei dem das optische Signal durch die Mikrokanalplatte in Phase mit der gleichen amplitudenmodulierten Frequenz moduliert wird wie die, die benutzt wird, um die Laserquelle zu modulieren. Beide Bilder werden räumlich aufgezeichnet, und die Differenz zwischen diesen wird durch die Interferenz der beiden Modulationswellenmuster verursacht, die ein Gleichspannungssignal erzeugt, das proportional zu der Phasenverschiebung ist. Wenn die Phasenverschiebung einmal ermittelt worden ist, kann die Entfernung zum Objekt berechnet werden.
  • Weil die Phasenverschiebung nur Modulo 2π bestimmt werden kann, kann die resultierende Entfernung nur innerhalb einer Wellenlänge der Lasermodulation gefunden werden. Zur Berechnung der Entfernung an jedem Punkt in dem Bild, muss die genaue ganzzahlige Anzahl der Phasenzyklen zu jedem Phasenmesswert addiert werden; das heißt, die Phase muss "unwrapped" werden. Es ist daher wünschenswert, die mehrdeutigen (oder "wrapped") Phasenmessungen aufzulösen, um die unzweideutigen (oder "unwrapped") Phasen zu ermitteln. Die unzweideutige Phase kann dann wiederum benutzt werden, um die unzweideutige Entfernung zu berechnen. Das zuvor erwähnte Patent ... 616 schlägt vor, den Laser und den Empfänger mit verschiedenen Frequenzen zu modulieren, um zwei Entfernungsabbildungen mit verschiedenen Modulationsfrequenzen zu erzeugen. Das würde Entfernungen ohne Mehrdeutigkeit innerhalb einer Wellenlänge der Welle ergeben, deren Frequenz der größte gemeinsame Faktor der Frequenzen des Lasers und des Empfängers ist, was eine Frequenz ist, die niedriger ist als jede der zwei Modulationsfrequenzen. Obwohl dies die Mehrdeutigkeitsprobleme in vielen Situationen reduzieren mag, existieren diese trotzdem in einem kleineren Maßstab weiter.
  • Es gibt zwei Haupttypen von Verfahren für das Lösen des Phasenmehrdeutigkeitsproblems: Branch-cut Verfahren und gewichtete Least- Squares Verfahren. Branch-cut Verfahren (wie die in Goldstein, Zebker und Werner "Satellite radar interferometry: two-dimensional phase unwrapping", Radio Science, Vol. 23, Seiten 713–720, 1988 und Prati, Giani und Leurati, "SAR interferometry: a 2-D phase unwrapping technique based on phase and absolute value information", Proc. Int. Geoscience & Remote Sensing Symposium IGARSS 1990, Washington, DC, Seiten 2043–2046, 1990 beschriebenen) verwenden Linien, um Phaseninkonsistenzen (oder Reste) zu verbinden. Branch-cut Verfahren arbeiten nicht mehr zuverlässig, falls die Anzahl der Reste hoch ist. Sie weichen oft auf lokale Mittelwertbildung aus, was nicht wünschenswert ist, weil es die Hochfrequenzinformation dämpfen kann. Least Squares-Verfahren (wie das in Ghiglia und Romero, "Robust twodimensional weighted and unweighted phase unwrapping that uses fast transforms and iterative methods", Journal of the Optical Society of America, Vol. 11, Seiten 107–117, 1994; und Pritt and Shipman, "Least-squares two dimensional phase unwrapping using FFT's", IEEE Transactions on Geoscience and Remote Sensing, Vol. 32, Seiten 706-708, 1994) bestimmen eine Phasenfunktion, die den Fehler in den Gradientenschätzwerten minimiert. Wenn es in dem mehrdeutigen Phasenbild Gebiete mit hohem Rauschanteil gibt, können Nachbargebiete mit niedrigem Rauschanteil verzerrt werden durch einen Least Squares Phasenunwrapping Algorithmus.
  • Schließlich offenbaren Stetson K A et al: "Noise-immune phase unwrapping by use of calculated wrap regions" in Applied Optics, 10. Juli 1997, Opt. Soc. America, USA, Vol. 36, No. 20, Seiten 4830–4838, XP002261604, ISSN: 0003-6935 das Verschieben der Phasenabbildungen um Phasenversätze entsprechend 90, 180 und 270 Grad. Zusätzlich wrapt der Zusammenführungsabschnitt der Programmarchitektur dieser Referenz anfänglich in den Bereich ± π/2 und verwendet dann eine mittlere Phasendifferenz über das Grenzgebiet der Regionen, um herauszufinden, welches die Wrapkonstante sein sollte (einer von vier möglichen Werten).
  • Es ist eine Aufgabe der Erfindung, ein Verfahren für unzweideutige Entfernungsermittlung anzugeben ohne die Nachteile der bekannten Branch- cut und Weighted Least Square Verfahren.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, die gemessenen Phasenverschiebungen bei Anwendung einer morphologischen Technik zu "entmehrdeutigen" (oder zu unwrappen).
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, ein Verfahren zum Unwrappen von Phasenverschiebungen anzugeben, die durch ein scannerfreies Laserradar-Entfernungsabbildungssystem erhalten werden, das ein Abbildungsbündel produziert (wenigstens drei Abbildungen entsprechend bestimmten Phasenversätzen der Erfassungseinrichtung und/oder der Beleuchtungsquelle).
  • Die vorliegende Erfindung ist darauf gerichtet, eines oder mehrere der oben erwähnten Probleme zu lösen. Kurz zusammengefasst wird entsprechend einem Aspekt der vorliegenden Erfindung ein Verfahren für mehrdeutigkeitsfreie Entfernungsermittlung zur Verfügung gestellt zur Anwendung in einem Entfernungsabbildungssystem, das Phasenabbildungen aus den Pixeln eines digitalen Bildes ableitet. Das Verfahren umfasst das Erzeugen (a) eines ersten Phasenabbildes, das ein oder mehrere mehrdeutige Phasenintervalle aufweist, und (b) wenigstens eines zusätzlichen Phasenabbildes, das erzeugt wird durch Verschieben der Phasenintervalle der ersten Phasenabbildung. Dann wird wenigstens eine Schnittregion zwischen den Phasenintervallen in den beiden Phasenabbildungen identifiziert. Dann wird die Phase wenigstens eines der mehrdeutigen Phasenintervalle in der ersten Phasenabbildung abgestimmt auf Basis der Phasenwerte der Pixel die zu dem Schnittgebiet gehören. Im Ergebnis unwrappt die Phasenabstimmung die Phasenmehrdeutigkeit in dem Phasenintervall der ersten Phasenabbildung.
  • Anstatt eine Pfadverfolgungstechnik oder eine Technik auf Basis von Least Square Lösungen anzuwenden, löst die vorliegende Erfindung Phasenmehrdeutigkeiten durch einen "Bereichsverschiebungs"-Algorithmus. Durch Anwendung eines Modells, bei dem eine mehrdeutige Phase ermittelt wird durch Erfassen von Abbildungen von wenigstens drei verschiedenen Phasenverschiebungen von entweder der Beleuchtungsquelle (z.B. einem Laser) oder der Erfassungseinrichtung (z.B. einem Verstärker), um ein wrapped Phasenabbild zu erhalten, wird ein Parameter in dem Modell gestört, der Bereiche mit Mehrdeutigkeit in dem wrapped Phasenabbild räumlich verschiebt. Durch die Anwendung morphologischer Bildverarbeitungstechniken werden die räumlichen Bewegungen der Mehrdeutigkeitsgebiete verfolgt. Die genauen Phasenverschiebungen werden durch diese Bereichsverschiebungstechnik ermittelt, wodurch ein unzweideutiges Phasenabbild erzeugt wird. Der Vorteil dieser Bereichsverschiebungstechnik im Vergleich zu anderen Phasenunwrapping-Techniken ist, dass sie eine unzweideutige Phase ohne Verzerrungen ermittelt (d.h. wenn nur der Ausgang der Bereichsverschiebungstechnik gegeben ist, kann der Eingang exakt gefunden werden).
  • In Anspruch 4 ist ein alternatives Ausführungsbeispiel des erfindungsgemäßen Verfahrens beschrieben.
  • Diese und andere Aspekte, Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden leichter verständlich und zu würdigen aus dem Studium der folgenden detaillierten Beschreibung eines bevorzugten Ausführungsbeispiels und der anhängenden Ansprüche, und bei Bezug auf die dazugehörigen Zeichnungen.
  • 1 ist ein Blockschaltbild eines bekannten Entfernungsabbildungssystems, das beim Ausführen der Erfindung benutzt werden kann zur Erfassung eines Bündels von Abbildungen.
  • 2 ist ein Diagramm eines Verfahrens der Berechnung eines mehrdeutigen Entfernungsabbildes aus dem Bündel von Abbildungen, das mit dem Entfernungsabbildungssystem von 1 erfasst wurde.
  • 3 ist eine Darstellung einer Verschiebung eines Mehrdeutigkeitsbereichs.
  • 4A und 4B sind Darstellungen der Wirkung, die durch Anwendung des Bereichsverschiebungs-Algorithmus erzielt wird bei der Bestimmung des geeigneten Phasenversatzes für die Beseitigung von Mehrdeutigkeiten in den mehrdeutigen Entfernungsabbildungen, wie sie in 2 erfasst werden.
  • 5 ist eine Darstellung einer Schnittregion zwischen den beiden in 4A und 4B gezeigten Phasenabbildungen.
  • 6 ist eine Darstellung der Schritte, die beim Unwrappen eines mehrdeutigen Entfernungsabbildes entsprechend der Erfindung beteiligt sind.
  • Weil Entfernungsabbildungssysteme, die Beleuchtungsquellen mit Laserlichterzeugern einsetzen und Erfassungssysteme, die Bildverstärker und elektronische Sensoren benutzen, wohl bekannt sind, wird die vorliegende Beschreibung insbesondere auf Elemente gerichtet, die Teil der vorliegenden Erfindung bilden oder direkter mit einer erfindungsgemäßen Einrichtung zusammenarbeiten. Elemente, die nicht besonders gezeigt oder beschrieben werden, können aus denen ausgewählt werden, die auf diesem Gebiet bekannt sind. Bestimmte Aspekte der zu beschreibenden Ausführungsbeispiele können als Software ausgeführt werden. Bei einem gegebenen System, wie es in den folgenden Unterlagen beschrieben wird, ist die gesamte Software, die zur Ausführung der Erfindung erforderlich ist, konventionell und gehört zum fachmännischen Wissen auf diesem Gebiet.
  • In der folgenden Beschreibung wird ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung wenigstens teilweise als Softwareprogramm beschrieben. Fachleute sehen unmittelbar, dass das Äquivalent dieser Software auch als Hardware aufgebaut werden kann. Weil Phasenunwrapping-Algorithmen und Verfahren wohl bekannt sind, wird die vorliegende Beschreibung insbesondere auf Aspekte solcher Algorithmen und Verfahren gerichtet, die Teil der vorliegenden Erfindung bilden oder direkter mit ihr zusammenarbeiten.
  • Andere Aspekte solcher Algorithmen und Systeme und Hardware und/oder Software zur Erzeugung und anderweitiger Verarbeitung der daran beteiligten Bildsignale, die nicht besonders gezeigt oder beschrieben werden, können aus den Systemen, Algorithmen, Komponenten und Elementen ausgewählt werden, die auf diesem Gebiet bekannt sind.
  • Weiterhin kann das hier benutzte Computerprogramm auf einem computerlesbaren Speichermedium gespeichert werden, das beispielsweise magnetische Speichermedien umfasst wie eine magnetische Diskette (wie eine Floppy Disk) oder Magnetband; optische Speichermedien wie Optical Disk, optisches Band oder maschinenlesbaren Strichcode, elektronische Festkörperspeicher wie Random Access Speicher (RAM) oder Nur-Lese-Speicher (ROM) oder jede andere physikalische Einrichtung oder jedes andere Medium, die zum Speichern von Computerprogrammen verwendbar sind.
  • Bezug nehmend zunächst auf 1 wird ein Entfernungsabbildungssystem 10 als Laserradar gezeigt, das benutzt wird, eine Szene 12 zu beleuchten und dann ein Abbildungsbündel zu erfassen, das wenigstens 3 Abbildungen der Szene 12 enthält. Eine Lichtquelle 14 emittiert einen Strahl von elektromagnetischer Strahlung, deren Frequenz von einem Modulator 16 gesteuert wird. Gewöhnlich ist die Lichtquelle 14 eine Lasereinrichtung, die einen optischen Diffusor aufweist, um eine Weitwinkelbeleuchtung zu erreichen. Der Modulator 16 erzeugt eine sinusförmige Amplitudenmodulation. Die modulierte Lichtquelle wird dargestellt als: L(t) = μL + ηsin(2πλt) (Gleichung 1)wobei μL die mittlere Beleuchtung ist, η der Modulus der Beleuchtungsquelle, und λ die Modulationsfrequenz, die an die Lichtquelle 14 gelegt wird. Die Modulationsfrequenz ist ausreichend hoch (z.B. 10 MHz), um ausreichend genaue Entfernungsergebnisse zu erzielen. Der Ausgangsstrahl 18 wird direkt auf die Szene 12 gerichtet und ein reflektierter Strahl 20 ist rückwärts auf einen Empfangsabschnitt 22 gerichtet. Wie bekannt, ist der reflektierte Strahl 20 eine verzögerte Version des ausgesandten Ausgangsstrahls 18, wobei der Betrag der Phasenverzögerung proportional zum Abstand der Szene vom Bilderfassungssystem ist. Der reflektierte Strahl 20 wird von einer Photokathode 24 aufgenommen, die dessen Amplitudenvariationen in einen modulierten Elektronenstrom umwandelt, der auf den Bildverstärker 26 trifft. Der Ausgang des Bildverstärkers 26 wird dargestellt als: M(t) = μM + γsin(2πλt) (Gleichung 2)wobei μM die mittlere Verstärkung ist, γ der Modulus der Verstärkung, und λ die Modulationsfrequenz, die an den Bildverstärker 26 gelegt wird. Der Zweck des Bildverstärkers ist nicht so sehr die Verstärkung des Bildsignals, sondern mehr, um als Modulationselement zu dienen. Beim Eintritt in den Bildverstärker 26 trifft der Elektronenstrom als erstes eine dünne leitfähige Folie 28, die mit dem Modulator 16 verbunden ist, wo der Elektronenstrom durch das Modulationssignal vom Modulator 16 moduliert wird. Der modulierte Elektronenstrom wird dann durch Sekundäremission von einer Mikrokanalplatte 30 verstärkt. Der verstärkte Elektronenstrom bombardiert einen Phosphorschirm 32, der die Energie in sichtbares Licht umsetzt. Das verstärkte Lichtsignal wird dann von einer Aufnahmeeinrichtung 34, wie einer ladungsgekoppelten Einrichtung (CCD) (= Charge Coupled Device) 34, erfasst. Das erfasste Bildsignal wird dann an einen Entfernungsprozessor 36 angelegt, um den Phasenunterschied an jedem Punkt in der Szene zu bestimmen. Der Phasenterm ω eines Objektes in einer Entfernung von p Metern ist gegeben durch:
    Figure 00090001
    wobei c die Lichtgeschwindigkeit im Vakuum ist. Das reflektierte Licht an diesem Punkt wird dargestellt als: R(t) = μL + ĸsin(2πλt + ω) (Gleichung 4)wobei ĸ der Modulus der vom Objekt reflektierten Beleuchtung ist. Die Pixelantwort P an diesem Punkt ist eine Integration des reflektierten Lichts und des Effekts der Verstärkung:
    Figure 00090002
  • Bei dem Entfernungsabbildungssystem, das in dem zuvor erwähnten ... 616 Patent beschrieben wird, wird ein Bezugsbild aufgenommen zu einem Zeitpunkt, bei dem die Mikrokanalplatte 30 kein Modulationssignal erhält, sondern auf einem mittleren Antwortwert gehalten wird. In diesem Fall ist die Gleichung 5 grundsätzlich nicht geändert, lediglich M(t) ist jetzt einfach eine Konstante μM. Die Entfernung wird für jedes Pixel ermittelt durch Berechnen des Phasenterms als eine Funktion der Werte des Pixels im Bezugsbild und im Phasenabbild. Es gibt verschiedene Gründe dafür, dass dieser Ansatz nicht genügend robust ist. Das schließt die Tatsache ein, dass die Analyse von gleich bleibenden Werten abhängt. Die Entfernungsermittlung geschieht auf Basis des Teils des Phasenabbildes in Relation zu dem Bezugsbild. Bei digitalen Systemen nimmt die relative Quantisierung des Phasenabbildes zum Bezugsbild ab, wenn die Antwort des Bezugsbildes abnimmt. Das System ist auch etwas rauschempfindlich.
  • Eine robuste Vorgehensweise, die Einschränkungen des Verfahrens, das im US Patent 4,935,616 vorgeschlagen wird, überwindet, wird in US-A-6,118,946 beschrieben. Anstatt ein Phasenabbild und ein Bezugsbild aufzunehmen, werden bei der verbesserten Vorgehensweise wenigstens drei Phasenabbildungen (als Abbildungsbündel bezeichnet) erfasst. Bei der vorhergehenden Lösung waren die Mikrokanalplatte 30 und die Laserlichtquelle 12 phasenverriegelt. Bei der verbesserten Lösung wird die Phase an der Mikrokanalplatte 30 relativ zur Phase der Laserlichtquelle 12 verschoben, und jede dieser Phasenabbildungen hat einen bestimmten Phasenversatz. Zu diesem Zweck ist der Entfernungsmessprozessor 36 entsprechend angeschlossen, um den Phasenversatz des Modulators 16 zu steuern, wie auch den mittleren Beleuchtungspegel und andere Aufnahmefunktionen je nach Bedarf. Wenn der Bildverstärker 26 (oder die Laserlichtquelle 14) um θi phasenverschoben wird, wird die Pixelantwort von Gleichung 5: Pi = 2μLμM + cos(ω + θi) (Gleichung 6)
  • Es ist wünschenswert, den Phasenterm ω aus der Formel abzuleiten. Dieser Term ist jedoch aus einem einzigen Bild nicht direkt zugänglich. In der Gleichung 6 gibt es 3 Unbekannte: den Mittelwertterm μLμM, den Moduliterm ĸγ und den Phasenterm ω. Als Ergebnis sind mathematisch nur 3 Werte (aus 3 Bildern) erforderlich, um eine Bestimmung des Phasenterms durchzuführen, der von der Distanz zu einem Objekt in der Szene verursacht wird. Deshalb ist ein Satz von 3 Bildern, erfasst mit einem einzigartigen Phasenversatz, ausreichend, um ω zu bestimmen. Aus Einfachheitsgründen werden die Phasenversätze angegeben als θi = 2πi/3; i = 0, 1, 2. In der folgenden Beschreibung soll ein Bildbündel verstanden werden als eine Sammlung von Bildern der gleichen Szene, aber wobei jedes Bild einen bestimmten Phasenversatz aufweist, erhalten durch die Modulation, die an die Mikrokanalplatte gelegt wird. Es versteht sich auch, dass eine analoge Analyse durchgeführt werden kann durch Phasenversatz der Beleuchtungsquelle 14 statt der Mikrokanalplatte 30.
  • 2 zeigt Schritte bei der Berechnung eines mehrdeutigen Phasenabbildes aus dem Bildbündel. Wenn die Abbildungen mit n ≥ 3 bestimmten Phasenversätzen des Verstärkers (oder des Lasers oder einer Kombination der beiden) erfasst werden, bilden diese Bilder ein Bildbündel 40. Die Anwendung von Gleichung 6 bei jedem Bild im Bildbündel und Expansion des Cosinusterms (z.B. Pi = 2μLμMπ + ĸπλ(cos(ω)cosθi – sin(ω)sin(θi))) resultiert im folgenden System linearer Gleichungen mit n Unbekannten an jedem Punkt:
    Figure 00110001
    wobei Λ1 = 2μLμMπ, Λ2 = ĸπλcosω und Λ3 = ĸπλsinω. Wenn nur drei Bilder benutzt werden, ist dieses lineare Gleichungssystem gut bestimmt, und für seine Lösung bietet sich eine große Vielfalt von numerischen Algorithmen an. Um Rundungsfehler minimal zu halten, wird LU Zerlegung mit Pivotisierung benutzt (beschrieben in Golub and Van Loan, Matrix Computations, Johns Hopkins University Press, 3. Ausg. 1996). Es gibt viele andere Verfahren für Lösungen, z.B. Zerlegungs- Substitutionsverfahren, direkte Inversberechnung, Cramer'sche Regel, usw.; alle diese Verfahren führen eine äquivalente Aufgabe aus. Wenn mehr als drei Bilder benutzt werden, ist das lineare System überbestimmt, und für seine Lösung bietet sich eine große Vielfalt von Least Square Techniken an. Wenn beispielsweise ein Bildbündel erfasst wird, das aus mehr als drei Bildern besteht, kann die Entfernungsberechnung erweitert werden durch eine Least Square Analyse bei Anwendung einer Einzelwertzerlegung (siehe z.B., W.H. Press, B.P. Flannery, S.A. Teukolsky and W.T. Vetterling, Numerical Recipes (the Art of Scientific Computing), Cambridge University Press, Cambridge, 1986). Die Einzelwertzerlegung wird insbesondere wegen ihrer Robustheit gegen Rundungsfehler gewählt (siehe Golub und Van Loan). Es existieren viele andere Lösungsverfahren, z.B. QR Zerlegung, Given's Transformation, Lanczo's Transformation, eine modifizierte Gram-Schmidt'sche Transformation zu einem quadratischen Programmierungsproblem, jedoch führen alle diese Verfahren eine äquivalente Aufgabe aus.
  • Dieses Gleichungssystem wird gelöst durch eines der zuvor erwähnten Verfahren für die Lösung 42, um den Vektor Λ = [Λ1, Λ2, Λ3]r. Weil diese Berechnung an jedem Ort (x, y) im Bildbündel durchgeführt wird, ist Λ tatsächlich ein Vektorbild 44, bestehend aus einem Dreielemente- Vektor an jedem Punkt. Der Phasenterm ω wird im Block 46 an jedem Punkt durch Anwendung einer Vierquadranten- Arcustangens- Funktion berechnet: ω = tan–13, Λ2) (Gleichung 8)
  • Die resultierende Sammlung von Phasenwerten an jedem Punkt bildet das mehrdeutige Phasenabbild 48.
  • Nachdem die Phase bestimmt worden ist, kann die Entfernung r berechnet werden durch:
    Figure 00120001
  • Die Gleichungen 1 bis 9 beschreiben das Verfahren der Entfernungsbestimmung bei Verwendung eines Bildbündels mit wenigstens drei Bildern (d.h. n = 3) entsprechend bestimmten Phasenversätzen des Verstärkers und/oder des Lasers. Weil ω jedoch "wrapped" in einem Hauptphasenintervall (–π, π] ist, ist die ermittelte Entfernung innerhalb einer Wellenlänge mehrdeutig.
  • Die Hauptaufgabe der Erfindung ist, die Phasenmehrdeutigkeiten aufzulösen, d.h. festzustellen, welche ganzzahligen Vielfache von 2 π zu ω an jedem Pixelort addiert werden müssen, um ein unwrapped Phasenabbild zu erhalten. Das in dieser Erfindung beschriebene Phasenunwrappingverfahren verschiebt Mehrdeutigkeitsbereiche im Phasenabbild durch Ändern des Hauptphasenintervalls von (–π, π] zu (–π + α, π + α], wobei |α| < π/2 ist. 3 zeigt die Verschiebung des Hauptphasenintervalls. Das ursprüngliche Phasenintervall (–π, π] wird durch einen Intervallanzeiger 50 gezeigt, und das verschobene Intervall (–π + α, π + α] ist mit dem Intervallanzeiger 52 dargestellt. Diese Verschiebung kann erreicht werden, indem man die Phase ωn = ώ + α einstellt und den Wert von Λ2 + Λ3 in Gleichung 7 werden lässt Λ2 = ĸπλ cos (ώ + α) und Λ3 = ĸπλ sin (ώ + α).
  • Das Expandieren der Sinus- und Cosinusterme und algebraische Umformung ergibt: Λ3 – Λ2 tan α = sin ώ (cos α + sin α tan α) (Gleichung 10) Λ3 + Λ2 tan α = cos ώ (cos α + sin α tan α) (Gleichung 11)
  • Die Auflösung der Gleichungen 10 und 11 nach ώ ergibt: ώ = tan–13 – Λ2 tan α, Λ2 + Λ3 tan α) (Gleichung 12)
  • Weil ώ ∈ (–π, π], ist die Phasenverschiebung ωα = ώ + α ∈ (–π + α, π + α]. Die Mehrdeutigkeitsgebiete im Bild mit Phasenverschiebung ωα (das im weiteren Teil der Beschreibung mit Ωα bezeichnet wird) wurden räumlich verschoben von denen im Bild mit der Phasenverschiebung ω.
  • Das Phasenunwrappingverfahren, das bis hierher beschrieben wurde, wird angesehen als das Arbeiten an zwei gestörten Phasenabbildern, dem zuvor erwähnten ersten Phasenabbild Ωα, gestört von der Phasenverschiebung α und einem zweiten Phasenabbild Ωβ, gestört von der Phasenverschiebung β. Das zweite Phasenabbild Ωβ hat Mehrdeutigkeitsgebiete, die räumlich verschoben sind durch Änderung des Hauptphasenintervalls von (–π, π] nach (–π + β, π + β], wobei α < β. 3 zeigt auch diese Verschiebung des Hauptphasenintervalls; das verschobene Intervall (–π + β, π + β] ist mit einem Intervallindikator 54 dargestellt. Im allgemeinsten Sinne jedoch kann das in dieser Erfindung beschriebene Phasenunwrappingverfahren angesehen werden als das Arbeiten an zwei Phasenabbildern, einem Phasenabbild mit ungestörter mehrdeutiger Phase, d.h. dem zuvor erwähnten ersten Phasenabbild Ωα oder dem zweiten Phasenabbild Ωβ mit entweder α = 0 oder β = 0. In beiden Hauptfällen mit einem gestörten Phasenabbild wird die Erfindung ähnlich ausgeführt, d.h. durch Finden (wird später erklärt) von Schnittgebieten zwischen den beiden Phasenabbildern. (Es ist auch anzumerken, dass, wenn α = 0 ist, dann ist ωα = ώ für das "erste" Phasenabbild, was dementsprechend das "ursprüngliche" Phasenabbild ist, das aus Gleichung 8 hervorgeht.)
  • 4A zeigt die Grenzen zwischen den Gebieten im ersten Phasenabbild Ωα (56), dessen Hauptphasenintervall (–π + α, π + α] ist, und 4B zeigt die Grenzen zwischen den Gebieten im zweiten Phasenabbild Ωβ (58), dessen Hauptphasenintervall (–π + β, π + β] ist. Das Verfolgen der Verschiebung der Mehrdeutigkeitsgebiete vom Bild Ωα zum Bild Ωβ, wobei α < β ohne Verlust an Allgemeingültigkeit ist, ergibt die geeigneten Phasenversätze für das Unwrappen des Phasenabbildes. Der erste Schritt S100 in diesem Prozess, der in 6 gezeigt wird, ist deshalb das Erzeugen erster und zweiter Phasenabbilder Ωα, Ωβ aus einem mehrdeutigen ursprünglichen Phasenabbild durch gegenseitiges Verschieben der Mehrdeutigkeitsgebiete, die begrenzt sind durch –π/2 < α < β < π/2. Der nächste Schritt S102 ist das Identifizieren der Mehrdeutigkeitsgebiete im Bild Ωα und Ωβ. Gebietsgrenzen existieren dort, wo die Phasenverschiebungen wrappen, deshalb kann eine beliebige aus einer Vielzahl von Kantenerkennungstechniken benutzt werden, um herauszufinden, wo die Phasenunterschiede 2 π erreichen. Es kann auch notwendig sein, eine morphologische Technik einzusetzen, um Grenzpixel zusammenzuführen. Nachdem alle Gebiete identifiziert worden sind, kann jedes Bild dargestellt werden als eine Vereinigung gegenseitig exclusiver Gebiete:
    Figure 00150001
    wobei Ωĸ (i) das i te Gebiet von Ωĸ ist (beliebige Reihenfolge) und m und n die Anzahl der Gebiete in Ωα bzw. Ωβ sind.
  • Wenn α und β stark unterschiedlich sind, dann wird für jedes i = 1, 2, ... m; Ωα (i) wenigstens ein Gebiet von Ωβ überlappen, das wenigstens zwei Gebiete von Ωα überlappt. Gleichermaßen wird für jedes j = 1, 2, ... n; Ωβ (j) wenigstens ein Gebiet von Ωα überlappen, das wenigstens zwei Gebiete von Ωβ überlappt. Bezug nehmend nochmals auf 6 und ohne Beschränkung der Allgemeinheit wird beim Schritt S104 ein erstes Gebiet Ωα (l) ausgewählt, das unwrapped Phasenwerte enthält. Andere Gebiete von Ωα können durch den folgenden Prozess unwrapped werden. Zuerst wird beim Schritt S106 ein erstes Gebiet Ωβ (ĸ) des zweiten Phasenabbilds Ωβ identifiziert, das sowohl das erste Gebiet Ωα (l) als auch ein weiteres zweites Gebiet in Ωα , etwa Ωα (p), im ersten Phasenabbild überlappt. (4 zeigt die Gebiete Ωα (l), Ωβ (ĸ) und Ωα (p); 5 zeigt das Gebiet Ωβ mit einem Schnittgebiet zwischen Ωβ (ĸ) und Ωα (p). Wenn die Pixel in Ωβ, die zu einem Schnittgebiet 60 (siehe 5) zwischen Ωβ (ĸ) und Ωα (p) gehören, Werte in (–π + α, π + β] annehmen, welches Werte in einem Intervall 62a des Ausdrucks in 3 sind, dann sollten beim Schritt S108 die Pixel in Ωα, die zu Ωα (p) gehören, um 2 π versetzt werden. Wenn die Pixel in Ωβ, die zu einem Schnittgebiet 60 zwischen Ωβ (ĸ) und Ωα (p) gehören, Werte in (–π + β, π + α] annehmen, welches Werte in einem Intervall 62b des Ausdrucks in 3 sind, dann sollten (auch beim Schritt S108) die Pixel in Ωα, die zu Ωα (p) gehören, um –2 π versetzt werden. Wenn irgendwelche andere Gebiete von Ωβ sowohl Ωα (l) als auch ein weiteres Gebiet in Ωα, etwa Ωα (q) überlappen, dann wird ein Versatz für Ωα (l) auf die gleiche Weise festgelegt.
  • Nachdem der Prozess für Ωα (l) abgeschlossen ist, wird Ωα (l) aus dem Satz der Gebiete, die Ωα bilden, ausgeschlossen, und der gesamte Prozess wird wiederholt für die anderen Gebiete von Ωα, beginnend mit den Grenzgebieten von Ωα (l). Es müssen jedoch neue Versätze, die bestimmt werden, zu den Versätzen des Startgebiets von Ωα der laufenden Iteration addiert werden. Wenn alle Gebiete von Ωα der Reihe nach untersucht worden sind, werden die für jedes Gebiet akkumulierten Versätze zu den Phasenverschiebungswerten von Ωα addiert, wodurch ein unzweideutiges (unwrapped) Phasenabbild erzeugt wird.
  • Zusammengefasst wurde eine Technik zur Ermittlung unzweideutiger Phasenverschiebungen bei Anwendung eines Laserradar Entfernungsabbildungssystems entwickelt. Nach der Erfassung von wenigstens drei Bildern entsprechend Phasenversätzen der modulierten Laserquelle oder des Empfängers kann die Phasenverschiebung der Intensitätsmodulation, die von dem Objekt reflektiert wird, berechnet werden. Diese Phasenverschiebung kann benutzt werden, um die Entfernung des Objekts zu berechnen, jedoch sind die Phasenverschiebung mehrdeutig (sie können nur modulo 2 π ermittelt werden). Ein zusätzlicher Parameter wird in den Phasenberechnungsschritt eingeführt. Die Störung dieses Parameters, kombiniert mit einer morphologischen Bildbearbeitungstechnik identifiziert Gebiete, bei denen ein zusätzlicher Versatz angewendet werden sollte, um Phasenmehrdeutigkeiten zu beseitigen.

Claims (8)

  1. Verfahren zur Beseitigung von Mehrdeutigkeit aus einem Phasenabbild für die Verwendung bei einem Weitbereichsabbildungssystem (10), das Phasenabbildungen erzeugt entsprechend einer Abstandsinformation, die aus den Pixels eines digitalen Bildes abgeleitet werden, wobei das besagte Verfahren folgende Schritte umfasst: (a) Erzeugen eines ersten Phasenabbildes (56), das Mehrdeutigkeitsgebiete aufweist, die wenigstens ersten und zweiten Phasenintervallen entsprechen und die ersten und zweiten Phasenintervalle Mehrdeutigkeitsbereichswerten entsprechen; (b) Erzeugen wenigstens eines zusätzlichen Phasenabbildes (58); und (c) Beseitigen der Mehrdeutigkeit aus dem ersten Phasenabbild auf Basis des ersten und des wenigstens einen zweiten zusätzlichen Phasenabbildes; dadurch gekennzeichnet, dass (d) das Erzeugen wenigstens eines zusätzlichen Phasenabbildes (58) das Verschieben der Mehrdeutigkeitsgebiete in Bezug auf die Mehrdeutigkeitsgebiete der ersten Phasenabbildung durch Verschieben der Phasenintervalle umfasst, wobei (e) wenigstens ein Schnittgebiet (60) zwischen zwei Phasenintervallen in den beiden Phasenabbildern (56, 58) identifiziert wird; und wobei (f) die Phase wenigstens eines der mehrdeutigen Phasenintervalle im ersten Phasenabbild abgestimmt wird auf Basis der Phasenwerte der Pixel in dem wenigstens einen zusätzlichen Phasenabbild, die zu dem Schnittgebiet gehören.
  2. Verfahren nach Anspruch 1, wobei das besagte erste Phasenabbild (56) erzeugt wird aus einem ursprünglichen Phasenabbild durch Verschieben der Phasenintervalle im ursprünglichen Phasenabbild (48) durch einen Phasenbetrag α und das besagte wenigstens eine zusätzliche Phasenabbild (58) erzeugt wird durch Verschieben der Phasenintervalle des ersten Phasenabbilds (56) durch einen Phasenbetrag β, wobei α < β ist.
  3. Verfahren nach Anspruch 1 oder 2, wobei der Schritt (f) der Phasenabstimmung den Versatz der Phase um ± 2π umfasst.
  4. Verfahren nach Anspruch 1 oder 3, umfassend die folgenden Schritte: (g) Erzeugen des besagten ersten Phasenabbilds (56) und des besagten wenigstens einen zusätzlichen Phasenabbilds, im Folgenden als das zweite Phasenabbild (58) bezeichnet, aus einem ursprünglichen Phasenabbild (48) durch entsprechendes Verschieben der Phasenintervalle um erste und zweite Phasenverschiebungen (α, β), wobei die erste Phasenverschiebung (α) im ersten Phasenabbild (56) geringer ist als die zweite Phasenverschiebung (β) im zweiten Phasenabbild (58); (h) Identifizieren von Mehrdeutigkeitsgebieten im ersten und zweiten Phasenabbild (56 und 58), wobei jedes Phasenabbild (56, 58) repräsentiert wird als eine Gruppe von gegenseitig exklusiven Mehrdeutigkeitsgebieten; (i) Auswählen eines ersten Mehrdeutigkeitsgebiets (Ωα (l)) im ersten Phasenabbild (56), das unwrapped Phasenwerte enthält; (j) Auswählen eines Mehrdeutigkeitsgebiets (Ωβ (k)) im zweiten Phasenabbild (58), das sowohl das erste (Ωα (l)) als auch ein zweites Mehrdeutigkeitsgebiet (Ωα (p)) im ersten Phasenabbild (56) überlappt; und (k) Abstimmen der Phase des zweiten Mehrdeutigkeitsgebiets (Ωα (p)) im ersten Phasenabbild (56) auf Basis der Pixelwerte, die zu einem Schnittgebiet (60) zwischen dem Mehrdeutigkeitsgebiet (Ωβ (k)) im zweiten Phasenabbild (58) und dem zweiten Mehrdeutigkeitsgebiet (Ωα (p)) im ersten Phasenabbild (56) gehören, wobei die Phasenwerte in dem zweiten Mehrdeutigkeitsgebiet (Ωα (p)) im ersten Phasenabbild (56) unwrapped werden.
  5. Verfahren nach Anspruch 4, wobei der Schritt (k) den Schritt des Versatzes der Phase der Pixel im zweiten Mehrdeutigkeitsgebiet (Ωα (p)) im ersten Phasenabbild (56) um ± 2π umfasst.
  6. Verfahren nach Anspruch 5, wobei die erste und zweite Phasenverschiebung mit α bzw. β bezeichnet werden, und α < β ist, und wobei der Schritt (k) das Versetzen der Phase der Pixel im zweiten Mehrdeutigkeitsgebiets (Ωα (p)) im ersten Phasenabbild (56) um 2π umfasst, wenn die Pixel im Schnittgebiet (60) Werte in einem Phasenintervall von (π + α, π + β) annehmen, und –2π umfasst, wenn die Pixel im Schnittgebiet (60) Werte in einem Phasenintervall von (–π + β, π + α) annehmen.
  7. Verfahren nach Anspruch 4, wobei der Schritt (h) den Schritt des Identifizierens der Grenzen der Mehrdeutigkeitsgebiete mit einer Kantenerkennungstechnik umfasst.
  8. Verfahren nach Anspruch 4, wobei die Schritte (i) bis (k) für jede der anderen Mehrdeutigkeitsgebiete des ersten Phasenabbildes (56) wiederholt werden, um die Phasenwerte in diesen Gebieten zu unwrappen.
DE60029182T 1999-11-24 2000-11-13 Verfahren zur eindeutigen Abstandsschätzung Expired - Lifetime DE60029182T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US449101 1999-11-24
US09/449,101 US6288776B1 (en) 1999-11-24 1999-11-24 Method for unambiguous range estimation

Publications (2)

Publication Number Publication Date
DE60029182D1 DE60029182D1 (de) 2006-08-17
DE60029182T2 true DE60029182T2 (de) 2006-11-23

Family

ID=23782863

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60029182T Expired - Lifetime DE60029182T2 (de) 1999-11-24 2000-11-13 Verfahren zur eindeutigen Abstandsschätzung

Country Status (5)

Country Link
US (1) US6288776B1 (de)
EP (1) EP1103786B1 (de)
JP (1) JP2001209807A (de)
DE (1) DE60029182T2 (de)
IL (1) IL138821A (de)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6856355B1 (en) * 1999-11-30 2005-02-15 Eastman Kodak Company Method and apparatus for a color scannerless range image system
US6349174B1 (en) * 2000-05-17 2002-02-19 Eastman Kodak Company Method and apparatus for a color scannerless range imaging system
US6456793B1 (en) * 2000-08-03 2002-09-24 Eastman Kodak Company Method and apparatus for a color scannerless range imaging system
US7194112B2 (en) * 2001-03-12 2007-03-20 Eastman Kodak Company Three dimensional spatial panorama formation with a range imaging system
US6507706B1 (en) * 2001-07-27 2003-01-14 Eastman Kodak Company Color scannerless range imaging system using an electromechanical grating
US7003742B2 (en) * 2002-01-10 2006-02-21 Pdf Solutions, Inc. Methodology for the optimization of testing and diagnosis of analog and mixed signal ICs and embedded cores
US20030147002A1 (en) * 2002-02-06 2003-08-07 Eastman Kodak Company Method and apparatus for a color sequential scannerless range imaging system
US6943724B1 (en) 2002-10-30 2005-09-13 Lockheed Martin Corporation Identification and tracking of moving objects in detected synthetic aperture imagery
US7202941B2 (en) * 2002-11-26 2007-04-10 Munro James F Apparatus for high accuracy distance and velocity measurement and methods thereof
US6856382B2 (en) * 2003-02-06 2005-02-15 Eastman Kodak Company Formation of three-dimensional video sequences with a scannerless range imaging system
US6864828B1 (en) 2003-02-18 2005-03-08 Lockheed Martin Corporation Method and apparatus for collection and processing of interferometric synthetic aperture radar data
GB0316858D0 (en) * 2003-07-18 2003-08-20 Univ Nottingham A process for radar measurements of the position and movement of indivual targets and of areas of land and ice
TWI257805B (en) * 2005-04-28 2006-07-01 Asmedia Technology Inc A method for image enlargement
KR101556593B1 (ko) * 2008-07-15 2015-10-02 삼성전자주식회사 영상 처리 방법
CN102013093A (zh) * 2010-12-02 2011-04-13 南京大学 一种基于Gram-Schmidt融合和LEGION的高分辨率遥感影像分割方法
CN102564302A (zh) * 2010-12-10 2012-07-11 通用电气公司 测量系统和方法
KR101722641B1 (ko) * 2010-12-23 2017-04-04 삼성전자주식회사 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
KR101854188B1 (ko) * 2011-10-25 2018-05-08 삼성전자주식회사 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서 깊이 정보 산출 방법
LU92173B1 (en) * 2013-03-20 2014-09-22 Iee Sarl Distance determination method
CN103279945B (zh) * 2013-04-26 2015-11-25 北京理工大学 一种基于质量图导引法和枝切法的干涉相位图解缠方法
US9702976B2 (en) * 2014-10-27 2017-07-11 Microsoft Technology Licensing, Llc Time of flight camera
US11428786B2 (en) 2017-12-03 2022-08-30 Munro Design & Technologies, Llc Dual waveforms for three-dimensional imaging systems and methods thereof
US10996335B2 (en) 2018-05-09 2021-05-04 Microsoft Technology Licensing, Llc Phase wrapping determination for time-of-flight camera
US10607352B2 (en) 2018-05-17 2020-03-31 Microsoft Technology Licensing, Llc Reduced power operation of time-of-flight camera
US11287517B2 (en) 2019-04-19 2022-03-29 Sense Photonics, Inc. Single frame distance disambiguation

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4935616A (en) 1989-08-14 1990-06-19 The United States Of America As Represented By The Department Of Energy Range imaging laser radar
US5581345A (en) * 1990-12-03 1996-12-03 Nikon Corporation Confocal laser scanning mode interference contrast microscope, and method of measuring minute step height and apparatus with said microscope
US5621807A (en) 1993-06-21 1997-04-15 Dornier Gmbh Intelligent range image camera for object measurement
JP3305083B2 (ja) * 1993-12-22 2002-07-22 キヤノン株式会社 光レーダ
US5995223A (en) * 1998-06-01 1999-11-30 Power; Joan Fleurette Apparatus for rapid phase imaging interferometry and method therefor

Also Published As

Publication number Publication date
EP1103786A2 (de) 2001-05-30
DE60029182D1 (de) 2006-08-17
JP2001209807A (ja) 2001-08-03
IL138821A0 (en) 2001-10-31
US6288776B1 (en) 2001-09-11
IL138821A (en) 2005-09-25
EP1103786A3 (de) 2004-01-14
EP1103786B1 (de) 2006-07-05

Similar Documents

Publication Publication Date Title
DE60029182T2 (de) Verfahren zur eindeutigen Abstandsschätzung
DE60218307T2 (de) Ladar system mit synthetischer aperture und inkohärenten laserimpulsen
DE102016107959B4 (de) Auf strukturiertem Licht basierende Multipfadlöschung bei ToF-Bilderzeugung
DE102012208654B4 (de) Kombiniertes Millimeterwellen-Bildgebungssystem und -verfahren
DE3038961C2 (de)
DE4345379C2 (de) Verfahren und Vorrichtung zum Vermindern von Bildartfakten in einem Phased-Array-Bildsystem
DE102007052940A1 (de) Radarvorrichtung
DE69534048T2 (de) Bilderzeugungsverfahren und -vorrichtungen
DE2209667A1 (de) Einrichtung zur beruehrungslosen messung
DE69834710T2 (de) Radarsystem
DE112015006123T5 (de) Verarbeitungsvorrichtung für Signale eines Radars mit synthetischer Apertur
DE4332590C2 (de) Flugzeuggetragenes SAR-System zur Bestimmung einer Gelände-Topographie
CN102812379B (zh) 超分辨率成像雷达
US5943006A (en) RF image reconstruction and super resolution using fourier transform techniques
US5164730A (en) Method and apparatus for determining a cross-range scale factor in inverse synthetic aperture radar systems
EP2718740A1 (de) Verfahren und vorrichtung zur erweiterung der ausleuchtung eines prüfobjekts
EP3999866A2 (de) Radargerät
DE102017113615A1 (de) System, Verfahren und Marker zur Positionsbestimmung eines beweglichen Objektes im Raum
DE102020123293A1 (de) Verfahren, Radarsystem und Fahrzeug zur Signalverarbeitung von Radarsignalen
DE2414644A1 (de) Vorrichtung zum empfangsseitigen bilden von richt-charakteristiken und zum korrelieren
DE3108594A1 (de) Pulsdoppler-radarempfaenger
DE102019216879B3 (de) FMCW-Radarmessgerät
DE2526753C3 (de) Verfahren und Anordnung zur Deformationsmessung großer Objekte durch Laserstrahlreflexion
DE112020007239B4 (de) Distanz-messungseinrichtung, distanz-messungsverfahren und radareinrichtung
DE1960862C3 (de) Radargerätsimulator

Legal Events

Date Code Title Description
8364 No opposition during term of opposition