DE102009030076A1 - Abbildungsverfahren mittels synthetischer Apertur, Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. Vorrichtung zur Durchführung der Verfahren - Google Patents

Abbildungsverfahren mittels synthetischer Apertur, Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. Vorrichtung zur Durchführung der Verfahren Download PDF

Info

Publication number
DE102009030076A1
DE102009030076A1 DE102009030076A DE102009030076A DE102009030076A1 DE 102009030076 A1 DE102009030076 A1 DE 102009030076A1 DE 102009030076 A DE102009030076 A DE 102009030076A DE 102009030076 A DE102009030076 A DE 102009030076A DE 102009030076 A1 DE102009030076 A1 DE 102009030076A1
Authority
DE
Germany
Prior art keywords
sensor
signal
phase
function
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009030076A
Other languages
English (en)
Inventor
Martin Dr. Vossiek
Stephan Max
Peter Dr. Gulden
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Symeo GmbH
Original Assignee
Symeo GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symeo GmbH filed Critical Symeo GmbH
Priority to DE102009030076A priority Critical patent/DE102009030076A1/de
Priority to EP10006559A priority patent/EP2270540A3/de
Priority to US12/821,780 priority patent/US20100321235A1/en
Publication of DE102009030076A1 publication Critical patent/DE102009030076A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9029SAR image post-processing techniques specially adapted for moving target detection within a single SAR image or within multiple SAR images taken at the same time
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • G01S13/9089SAR having an irregular aperture
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8902Side-looking sonar
    • G01S15/8904Side-looking sonar using synthetic aperture techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Die Erfindung bezieht sich insbesondere auf ein Abbildungsverfahren zur Abbildung oder Lokalisierung eines Objektes (O) mit einem wellenbasierten Sensor (SS), bei dem von dem Objekt von zumindest einer Objektposition (P(r) = P= (x, y, z)) ein Wellenfeld als ein Objektsignal (os) ausgeht und dieses von zumindest einem Sensor an zumindest einer Sensorposition (a= (x, y, z)) empfangen wird und dabei Sensoren und Objekt eine Anzahl (M) von räumlichen Positionen zueinander einnehmen und eine synthetische Apertur bilden und an jeder dieser Sensorpositionen ein Echosignal (e) aufgenommen wird, aus den Echosignalen eine Anzahl (M) Funktionswerte entnommen werden, die basierend auf einer angenommenen Aufnahmegeometrie und unter Berücksichtigung der Wellenausbreitungsvorgänge einer Raumkoordinate (r = (x, y, z)) des Objekts zugeordnet sind, und aus den Funktionswerten ein Signal (e(n)) mit einem Restphasenverlauf (φ(n)) gebildet wird. Das Signal weist einen bestimmbaren, deterministischen und nicht konstanten Restphasenverlauf auf, der von einer Abweichung realer Sensorpositionen (a) von angenommenen oder gemessenen Sensorpositionen (a) herrührt. Auf diesem Restphasenverlauf beruhend wird ein Bildpunkt (b(x, y, z)), die Objektposition oder die Relativbewegung des Objektes bestimmt.

Description

  • Die Erfindung bezieht sich auf ein Abbildungsverfahren mit synthetischer Apertur und mit den oberbegrifflichen Merkmalen gemäß Anspruch 1, auf ein darauf beruhendes Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. auf eine Vorrichtung zur Durchführung der Verfahren.
  • Verfahren auf Basis einer sogenannten synthetischen Apertur (SA) mittels insbesondere Radartechnik werden eingesetzt, um ein Abbild eines Objektes zu erstellen, beispielsweise ein Erdoberflächenabbild zu erstellen. Ein allgemeines Prinzip von SA-Systemen ist für einen Wellenbereich von Mikrowellen z. B. im Fachbuch „H. Radar mit realer und synthetischer Apertur" von Klausing und W. Holpp, Oldenbourg, 2000, Kapitel 8, S. 213 ff., oder in "M. Younis, C. Fischer, and W. Wiesbeck, "Digital beamforming in SAR systems", Geoscience and Remote Sensing, IEEE Transactions on, vol. 41, pp. 1735-1739, 2003, ausführlich dargestellt. Bekannt sind SA-Verfahren auch aus z. B. WO 2006/072471 , DE 199 10 715 C2 oder EP 0 550 073 B1 . Im Bereich der Radarsensorik spricht man in diesem Zusammenhang von SAR (Synthetic Aperture Radar) oder auch SDRS (Software-Defined Radar Sensors).
  • Nahezu identische Verfahren sind im Bereich der Medizin oder Ultraschallmesstechnik seit langem unter den Begriffen Holographie bzw. Tomographie bekannt und beispielsweise beschrieben in M. Vossiek, V. Mágori, and H. Ermert, „An Ultrasonic Multielement Sensor System for Position Invariant Object Identification", presented at IEEE International Ultrasonics Symposium, Cannes, France, 1994, oder M. Vossiek, „Ein Ultraschall-Mehrwandlersystem zur lageunabhängigen Objekterkennung für die industrielle Automation", Fortschritt-Berichte VDI, Reihe 8: Mess-, Steuerungs- und Regelungstechnik, vol. 564, 1996.
  • Allgemein bekannt ist, dass SA-Verfahren mit allen kohärenten Wellenformen, z. B. im Radarbereich mit elektromagnetischen Wellen und im medizinischen Bereich der Ultraschallwellen mit akustischen Wellen, durchgeführt werden können. Auch Signale von Wellenquellen, deren Verlauf und Kohärenz der Empfänger nicht kennt, können mit SA-Verfahren verarbeitet werden, wenn man aus an zumindest zwei räumlich getrennten Orten empfangenen Signalen ein Signal bildet, das nicht mehr die Absolutphase sondern Phasendifferenzen der Signale beschreibt, ist bekannt aus z. B. DE 195 12 787 A1 .
  • Bekannt ist außerdem eine Vielzahl von Sekundärradarverfahren, wie sie z. B. beschrieben sind in DE 101 57 931 C2 , DE 10 2006 005 281 , DE 10 2005 037 583 , in Stelzer, A., Fischer, A., Vossiek, M.: „A New Technology for Precise Position Measurement-LPM", Microwave Symposium Digest, 2004, IEEE MTT-S International, Vol. 2, 6–11 June 2004, S. 655-658, oder in R. Gierlich, J. Huttner, A. Ziroff, and M. Huemer, „Indoor positioning utilizing fractional-N PLL synthesizer and multi-channel base stations", Wireless Technology, 2008, EuWiT 2008, European Conference on, 2008, pp. 49-52, oder in S. Roehr, P. Gulden, and M. Vossiek, „Precise Distance and Velocity Measurement for Real Time Locating in Multipath Environments Using a Frequency-Modulated Continuous-Wave Secondary Radar Approach", IEEE Transactions on Microwave Theory and Techniques, vol. 56, pp. 2329-2339, 2008.
  • Außerdem bekannt sind in der technischen Realisierung verwendete Transformationen. Geeignete Wavelet- oder Zeit-Frequenz-Transformationen liefert z. B. Shie Qian, „Introduction to Time-Frequency and Wavelet Transforms", Prentice Hall 2001. Spektralauswerteverfahren wie FFT (Fast Fourier Transformation) und zeitbereichsbasierte Verfahren sind beschrieben in z. B. S. L. Marple, Jr., „A tutorial overview of modern spectral estimation", Acoustics, Speech, and Signal Processing, 1989, ICASSP-89, 1989 International Conference on, 1989, pp. 2152-2157 vol. 4.
  • Für das Verständnis der SA-Verfahren von Bedeutung ist für die nachfolgenden Darstellungen insbesondere das sogenannte breitband-holographische Abbildungsverfahren. Eine Erläuterung einer Aufnahmesituation eines Bildes mittels des breitband-holographischen Abbildungsverfahrens erfolgt anhand 5.
  • Dargestellt ist ein in einem kartesischen Koordinatensystem x, y, z feststehend angeordnetes Objekt O. Bestimmt werden soll eine Raumkoordinate r des Objektes O bzw. ein Bildpunkt von dessen Oberfläche innerhalb des Koordinatensystems x, y, z. Ein Punkt der Oberfläche des Objektes O, insbesondere ein Streupunkt P oder ein Transponder, strahlt als passiver bzw. als aktiver Sender ein Objektsignal os ab. Bestimmt werden soll demgemäß eine Objektposition P(r) = PO1 = (xO1, YO1, zO1)T des Objektes O bzw. von dessen Transponder oder Streupunkt P.
  • Dazu wird ein Sensor SS längs einer Sensorbahn sw bzw. Sensor-Bewegungstrajektorie bewegt. Der Sensor umfasst eine Antenne A und einen Empfänger RX, welche das Objektsignal os erfassen, welches von dem Streupunkt P oder Transponder sowohl über einen direkten Weg rn als auch zu einem späteren Zeitpunkt zeitlich versetzt eintreffend über Echos bzw. Umwege zu der Antenne A gelangt. Das über die Antenne A zu einer Zeit t empfangene Signal wird mittels eines Prozessors C verarbeitet und als Empfangssignal, das auch als Echoprofil oder Echosignal en(t) bezeichnet wird, ausgegeben. Es ist allgemein bekannt, dass Werte über einer Zeitachse mit der Zeit t als Variabler des Echosignals en(t) über seine Ausbreitungsgeschwindigkeit in Werte einer Entfernungsachse, d. h. mit Ortskoordinaten als Variablen umgerechnet werden können.
  • Die Aufnahme erfolgt dabei zeitlich aufeinanderfolgend an verschiedenen scheinbaren Sensorpositionen an = (xn, yn, zn)T mit n als Element der Anzahl 1, 2, ... n, ... M der Sensorpositionen an, so dass mittels synthetischer Apertur ein räumliches Bild des Objektes O erzeugt werden kann.
  • Allgemein bekannt ist dabei, dass der Sensor SS auch einen Sender TX aufweist, welcher ein Sendesignal sn(t) in insbesondere Richtung des Objekts O sendet. Das über direkte und indirekte Wege am Objekt O ankommende Sendesignal sn(t) wird dann vom Objekt O als das Objektsignal os abgesendet.
  • Die Datenaufnahme erfolgt somit derart, dass zumindest ein Radargerät ein Signal von der scheinbaren Sensorposition an = (xn, yn, zn)T in Richtung einer Objektszene emittiert. An einem Punktstreuer des Objektes O an der Objektposition P(r) = PO1 = (xO1, YO1, zO1)T soll dieses Radarsignal dann gestreut und/oder reflektiert werden. Aus Gründen der Überschaubarkeit wird zunächst davon ausgegangen, dass das Radargerät das vom Objekt O zurückreflektierte Objektsignal os an der selben scheinbaren Sensorposition an empfängt. Eine Übertragung auf eine Anordnung mit getrennten Sende- und Empfangsantennen wäre z. B. mit Hilfe der oben aufgeführten Literatur leicht möglich. Ein derartiger Messvorgang wird von M verschiedenen scheinbaren Mess- bzw. Sensorpositionen an mit n = 1 ... M durchgeführt. Folglich führt die Messung zu einer Gruppe von M unterschiedlichen Mess- bzw. Echosignalen en(t) bzw. dazu gehörigen Echospektren En(ω).
  • Die wahre und durch die Messung in idealer Weise zu bestimmende Position des Transponders bzw. des Streupunkts sei die Objektposition P(r) = PO1 = (xO1, yO1, zO1)T.
  • Für eine kompakte Darstellung wird nachfolgend von weiteren Vereinfachungen ausgegangen. Ein Messbereich in dem sich das Objekt O aufhalten kann, sei auf einen Raumbereich begrenzt, in dem sichergestellt ist, dass das Objekt O von allen scheinbaren Sensorpositionen an vom Radargerät bzw. Sensor SS erfasst werden kann. Außerdem wird im Folgenden von einem gleichförmigen, konstanten und nicht richtungsabhängigen Richtverhalten aller Antennen ausgegangen.
  • Die Basis zur Modellierung eines durch die Messwege rn gebildeten Übertragungskanals sei ein idealer AWGN-Kanal (AWGN: Additive White Gaussian Noise/additives weißes Gauss'sches Rauschen). D. h. das vom Sensor SS empfangene Echosignal en(t) kann mit einem Modell beschrieben werden, bei dem sich das Echosignal en(t) als lineare Superposition einer Vielzahl P von amplitudengewichteten und zeitverzögerten Sende- bzw. Objektsignalen os ergibt, wobei ein Index p die verschiedenen Übertagungswege, d. h. den direkten Weg und sogenannte Multipath-Umwege, vom Radargerät bzw. Sensor SS zum Objekt O und zurück bezeichnet. Dann gilt für das Echosignal en(t)
    Figure 00060001
  • Dabei sei αn eine für den direkten Messweg rn charakteristische Direktweg-Dämpfung, insbesondere Direktweg-Dämpfungskonstante, wobei αp zudem die über die normale Direktweg-Dämpfung αn hinausgehende Dämpfung für jeden der p Übertragungswege berücksichtigen soll.
  • Außerdem sei τn eine charakteristische Direktweg-Signallaufzeit für den direkten Messweg rn, d. h. die Signallaufzeit des direkten, kürzesten Wegs vom Radargerät bzw. Sender TX zum Objekt O und zurück. Zudem soll τp mögliche Laufzeitverlängerungen aufgrund von Mehrfachreflexionen für jeden der p Übertragungswege berücksichtigen. Für den Laufindex p = 1, d. h. für den direkten Messweg rn gilt dabei als Laufzeitverlängerung τp = 0.
  • Außerdem beschreibt n(t) additiv überlagerte Störungen in Form von AWGN.
  • Wird diese Gleichung zum Übertragungsmodell in den Frequenzbereich transformiert, so ergibt sich das Echospektrum
    Figure 00060002
  • Dabei ist S(ω) das Sendespektrum des Sendesignals s(t) und N(ω) das Rauschspektrum der AWGN. Die Direktweg-Signallaufzeit τn zu einer beliebigen Raumkoordinate r = (x, y, z)T und zurück berechnet sich gemäß
    Figure 00070001
    wobei c eine Ausbreitungsgeschwindigkeit der Welle ist.
  • Ein sogenannter „breitband-holographischer Rekonstruktionsalgorithmus” basiert auf einer Technik einer Optimalfilterung. Zur Berechnung eines Bildpunktes b(x, y, z) am Objekt O wird das gemessene Empfangs- bzw. Echospektrum En(ω) mit einer theoretisch idealen Funktion Fn(an, r, ω) korreliert, wobei die ideale Funktion Fn(an, r, ω) einen Streupunkt P bzw. einen Punktstreuer, der sich irgendwo in der Objektszene befindet, an der Raumkoordinate r = (x, y, z)T von der scheinbar gemessenen Sensorposition an = (xn, yn, zn)T betrachtet erzeugen würde. Diese Korrelation bzw. Vergleichsfunktion liefert einen umso größeren Wert, je mehr das Empfangssignal bzw. Echosignal en(t) dem theoretischen Signal ähnelt.
  • Ein große Ähnlichkeit der Signale liegt dann vor, wenn sich an der Position der Raumkoordinate r tatsächlich ein Punktstreuer befindet, also der angenommene Bildpunkt b(r) tatsächlich der realen Reflektor-Position PTP1 = (xTP1, yTP1, zTP1)T des als dem Streupunkt P am Objekt O angenommenen Reflektors entspricht.
  • Durch Summation der Korrelationsergebnisse für alle M direkten Messwege r1, ... rn, ... rM ergibt sich eine Art Wahrscheinlichkeitswert, der aussagt, ob an der Position der Raumkoordinate r ein Punktstreuer, d. h. eine reflektierende und/oder streuende Objektstruktur vorhanden bzw. nicht vorhanden ist. Die Rekonstruktionsvorschrift lautet somit
    Figure 00080001
  • Das hier zum Signalvergleich nach Art einer Korrelation gewählte inverse Filter der idealen Funktion Fn –1 entspricht bezüglich des exponentiellen Ausbreitungsterms einem sogenannten Matched-Filter-Ansatz, d. h. einer Multiplikation mit dem konjugiert komplexen Signal, also mit Fn*(an, r, ω).
  • Basierend auf dem zuvor beschriebenen Übertragungsmodell und unter Vernachlässigung der additiven Störungen n(t) und unter Vernachlässigung von Mehrfachreflexionen, ergibt sich das Signal eines fiktiven Punktstreuers an der Raumkoordinate r zu der idealen Funktion
    Figure 00080002
  • Im Weiteren wird noch angenommen, dass das Sendesignal S(ω) = 1 ist, was ohne Einschränkung der Allgemeingültigkeit möglich ist, da etwaige nicht-ideale Eigenschaften des Sendesignals im spektralen Übertragungsbereich des Sensorsystems durch den oben dargestellten Ansatz des inversen idealen Filters in für sich bekannter Art und Weise kompensiert werden könnten.
  • Setzt man diese Signalhypothese nun in die oben eingeführte Rekonstruktionsvorschrift ein, so folgt
    Figure 00080003
  • Es ist erkennbar, dass das Integral über die sogenannte Kreisfrequenz ω einer inversen Fouriertransformation entspricht und somit das Empfangssignal bzw. das Echosignal en(t) zum Zeitpunkt t = τn liefert. Die endgültige für sich bekannte allgemeine Rekonstruktionsvorschrift lautet demzufolge
    Figure 00090001
    und wird als breitband-holographische Rekonstruktionsformel bezeichnet.
  • Anzumerken ist, dass etwaige reelle Empfangssignale vor der Summation zu einem komplexen Signal erweitert werden, um so eine Hüllkurve der Bildfunktion, also eine Art „Helligkeitsfunktion” bestimmen zu können. Die Berechnung des komplexen Signals kann vorzugsweise mit Hilfe der sogenannten Hilbert-Transformation erfolgen.
  • Der gewonnene Ausdruck lässt sich sehr anschaulich interpretieren. Befindet sich tatsächlich ein Streukörper an der Position der Raumkoordinate r, so tritt sein Antwortsignal in den Echosignalen en(t) jeweils beim Zeitpunkt bei t = τn auf. Durch die laufzeitrichtige Summation über die M Messwege werden seine Signalbeiträge durch die Rekonstruktionsvorschrift kohärent überlagert, so dass sich ein großer Wert für b(x, y, z) ergibt. Etwaige Signalanteile anderer, nicht in der Raumkoordinate r positionierter Streukörper, Signalanteile von Mehrwegereflexionen oder Rauschen überlagern sich dagegen wegen der nicht konsistenten Laufzeiten inkohärent und führen somit zu einem wesentlich kleineren Bildsignal. Um sicher sein zu können, dass eine inkohärente Superposition mehrerer Echosignale e1(t) + ... + en(t) + ... + eM(t) zu einer deutlich kleineren Amplitude führt als eine kohärente Überlagerung, ist zu fordern, dass die Anzahl M der Messpunkte zumindest größer oder gleich 2 ist, vorzugsweise aber sogar deutlich größer als 2 ist.
  • Es ist allgemein bekannt, dass die M Mess- bzw. Sensorpunkte an = (xn, yn, zn)T durch mehrere Radargeräte und/oder durch bewegen zumindest eines Radar-Sensors längs der Sensorbahn sw erzeugt werden können.
  • Wie auch bei dem dargestellten Ansatz basieren alle für sich bekannten SA-Verfahren darauf, dass Signale von mehreren M Messungen basierend auf einem Übertragungs- und Aufnahme- bzw. Bewegungsmodell phasenabhängig überlagert werden.
  • Damit eine SA-Bildgebung funktioniert, ist es nach den bekannten SA-Verfahren und auch bei dem dargestellten breitband-holographischen Verfahren zwingend notwendig, dass die Koordinaten der Sensorpositionen an = (xn, yn, zn)T sehr exakt mit der Wirklichkeit übereinstimmen, da andernfalls eine laufzeit- und phasenrichtige kohärente Überlagerung nicht mehr möglich ist. Eine typische Anforderung ist, dass die Abweichung aller angenommen Sensorpositionen an von den tatsächlichen Sensorpositionen an_real sehr viel kleiner sein muss, als die Wellenlänge der verwendeten Echosignale en(t).
  • Eine für sich bekannte sehr attraktive Variante zur Implementierung eines SA-Sensors SS besteht darin, einen oder ggf. auch mehrere wellenbasierte Sensoren SS auf einem Fahrzeug, z. B. auf einem Auto, Lastkraftwagen, Flugzeug, Schienenfahrzeug, Gabelstapler, Roboter, Hubgestänge, Hebezeug, Transportsystem oder autonomen Fahrzeug zu befestigen und die ohnehin vorhandene Bewegung des Fahrzeuges auszunutzen, um eine synthetische Apertur aufzuspannen und die Vielzahl der M räumlich verteilen Messungen durchzuführen. Um aber die Koordinaten der zu den jeweiligen Messzeitpunkten scheinbar momentanen Sensorpositionen an = (xn, yn, zn)T hinreichend exakt zu kennen, ist es notwendig, dass der Weg des Fahrzeugs als die Sensorbahn sw sehr exakt vermessen wird. Eine derart exakte Messung auf einen Bruchteil der Wellenlänge der verwendeten Sendesignale s(t) ist aber mit einem erheblichen Aufwand verbunden bzw. oft gar nicht möglich. Ein Grund kann z. B. ein beim Fahren mit Gabelstaplern häufig auftretender Schlupf oder ein seitliches Überrollen von Rädern sein. Ein anderer beispielhafter Grund können Integrationsfehler sein, die häufig bei Verwendung von Beschleunigungs- oder Geschwindigkeitssensoren auftreten, da bei diesen Sensoren der zurückgelegte Weg über eine einfache bzw. zweifache Integration bestimmt werden muss oder aber bei Doppler-Sensoren wegen eines unbekannten und/oder variierenden Nickwinkels des Sensors.
  • Neben diesen Messfehlern bei der Bestimmung der eigenen Position des Radars kommt in dem Fall, in dem die M Messungen nacheinander durchgeführt werden, bei der Abbildung von bewegten Objekten noch ein anderes Problem hinzu. Wie in den obigen Ausführungen zu sehen ist, bezieht sich die Sensorposition an = (xn, yn, zn)T des Sensors SS auf einen Punktstreuer des Objektes O an einem festen Ort P(r) = PO1 = (xO1, yO1, zO1)T. Bewegt sich das Objekt O jedoch während der M Messungen, so müsste diese zusätzliche Relativbewegung in der Bildrekonstruktion bzw. in den gemessenen scheinbaren Sensorpositionen an = (xn, yn, zn)T berücksichtigt werden.
  • Nun sieht eine allgemeine Messsituation in einer natürlichen Umgebung häufig so aus, dass der wellenbasierte Sensor SS viele Objekte O mit teilweise unterschiedlichen Geschwindigkeiten wahrnimmt. Fährt ein Gabelstapler oder ein autonomes Fahrzeug oder ein Roboter, der einen Sensor SS mit sich führt, z. B. durch eine Produktionshalle, so kann er neben den ortsfesten Anlagen, Einbauten und Gebäudeteilen ggf. auch laufende Personen oder andere sich bewegende Fahrzeuge wahrnehmen.
  • Mit den bekannten SA-Verfahren ist es jedoch nicht möglich, alle diese Objekte mit unterschiedlicher Relativgeschwindigkeit zum Sensor SS qualitativ gleichwertig abzubilden.
  • Die Aufgabe der vorliegenden Erfindung ist es, dieses erhebliche technische Problem mittels der praktischen Anwendung von SA-Verfahren zu lösen. Abgeleitet aus dieser Lösung soll sich vorzugsweise auch ein Verfahren ergeben, wie ein Fahrzeug ausgestattet mit einem wellenbasierten Sensor mit Hilfe derartiger SA-Verfahren dann seine Relativ-Geschwindigkeit bzw. seine relative Wegänderung zu anderen Objekten bestimmen kann.
  • Diese Aufgabe wird durch das Abbildungsverfahren mittels synthetischer Apertur zwischen einem wellenbasierten Sensor und einem Objekt mit den Merkmalen des Patentanspruchs 1, durch das darauf basierende Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen dem wellenbasierten Sensor und dem Objekt mit den Merkmalen des Patentanspruchs 14 bzw. durch die Vorrichtung mit den Merkmalen des Patentanspruchs 15 gelöst.
  • Bereitgestellt werden somit ein Abbildungsverfahren mit synthetischer Apertur, das auf einer Auswertung von Restphasenabweichungen beruht, sowie basierend darauf ein Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. eine Vorrichtung zur Durchführung der Verfahren. Vorteilhafte Ausgestaltungen sind Gegenstand von abhängigen Ansprüchen.
  • Bevorzugt wird insbesondere ein Abbildungsverfahren zur Abbildung oder zur Lokalisierung eines Objektes mit einem wellenbasierten Sensor mittels synthetischer Apertur, bei dem von dem Objekt von zumindest einer Objektposition ein Wellenfeld als ein Objektsignal ausgeht, wobei das Objektsignal erzeugt wird, indem entweder das Objekt mit zumindest einer Wellenquelle bestrahlt wird und das Objekt als Reaktion dieses Wellenfeld reflektiert oder streut oder indem das Objekt selbständig eine Welle emittiert, und dieses vom Objekt ausgehende Objektsignal von dem zumindest einen Sensor an zumindest einer Sensorposition empfangen wird und dabei der Sensor bzw. die Sensoren und das Objekt eine Anzahl von zumindest zwei räumlichen Positionen relativ zueinander einnehmen und dadurch die synthetische Apertur bilden und an jeder dieser Sensorpositionen durch den Sensor ein Echosignal aufgenommen wird, aus den Echosignalen eine Anzahl größer 1 mehrerer der Echosignale gebildet wird, bei denen der Amplituden- und/oder der Phasenverlauf eine Funktion einer Signallaufzeit oder einer Signallaufzeitdifferenz oder eine Funktion einer Entfernung oder einer Entfernungsdifferenz zwischen dem Objekt und zumindest einem der Sensoren ist, und aus dieser Anzahl größer 1 der Echosignale zumindest ein Funktionswert je Echosignal entnommen wird, wobei die entnommenen Funktionswerte einer angenommenen Raumkoordinate des Objekts zugeordnet sind. Vorteilhaft wird ein solches Verfahren dadurch, dass die Anzahl der entnommen Funktionswerte der Echosignale an deren angenommenen Sensorpositionen einen bestimmbaren, deterministischen und nicht konstanten Restphasenverlauf aufweist, der von einer Abweichung realer Sensorpositionen von angenommenen oder gemessenen Sensorpositionen herrührt und/oder von einer Bewegung des Objektes herrührt, und dass dieser Restphasenverlauf analysiert oder kompensiert wird und auf dem Ergebnis der Analyse oder der Kompensation zumindest ein Bildpunkt des Objektes oder die Objektposition des Objektes oder die Relativbewegung des Objektes bestimmt oder geschätzt wird.
  • Unter der Objektposition kann die Position des Objektes als Ganzem verstanden werden, aber auch nur eine Position eines Punktes, insbesondere ein Reflexions- oder Streupunktes oder einer Transponderantenne an dem Objekt verstanden werden.
  • Die Begriffe Sensor und Empfänger können insoweit synonym verwendet werden, als dass unter einem Sensor eine Einrichtung verstanden wird, welche zumindest Komponenten eines Empfängers aufweist und mit ggfs. zusätzlichen Komponenten eines Empfängers in festem Bezug steht.
  • Der Sensor bewegt sich ggfs. über eine insbesondere unbekannte Sensorbahn. Unter deterministisch ist ein physikalisch fester Zusammenhang zu verstehen, welcher für den Phasenverlauf zumindest des größten Anteils der jeweils betrachteten Echosignale gemeinsam gilt und insbesondere durch eine geschlossene Formel beschreibbar ist.
  • Ein Echosignal kann auch nur über den direkten Weg gelaufene Wellen- oder Signalanteile umfassen.
  • Unter einer Analyse wird insbesondere die Anwendung einer Fouriertransformation oder Frequenzschätzung oder eine Zeit-Frequenzanalyse verstanden. Unter einer Kompensation wird insbesondere eine Differentiation des Restphasenverlaufs verstanden.
  • Bevorzugt wird ein solches Verfahren, bei dem der Determinismus des Restphasenverlaufs darin besteht, dass er sich linear mit der Zeit oder dem Index ändert, oder dass die entnommenen Funktionswerte eine sinusförmige Funktion beschreiben und dass mit einem Frequenzanalyseverfahren eine Amplitude und/oder eine Frequenz und/oder die Phase der sinusförmigen Funktion bestimmt wird. Ausgenutzt wird dabei die überraschende Erkenntnis, dass eine lineare Phase der Echospektren, was mathematisch betrachten gleichbedeutend mit einem sinusförmigen Verlauf der zugrundeliegenden Funktionswerte ist, auf einfache Art und Weise mit einem Frequenzanalyseverfahren auswertbar ist.
  • Bevorzugt wird dabei aus der Amplitude der sinusförmigen Funktion ein Wahrscheinlichkeitswert bestimmt, der aussagt, ob von der Raumkoordinate des Objekts ein Wellenfeld ausgeht oder nicht.
  • Aus der Frequenz der sinusförmigen Funktion kann dann die Relativbewegung zwischen dem Objekt und dem zumindest einen Sensor bestimmt werden.
  • Bevorzugt wird insbesondere ein solches Verfahren, bei dem eine Phasendifferenz von zumindest 2 der entnommenen Funktionswerte gebildet wird und diese Phasendifferenz zum Bestimmen der Relativbewegung zwischen dem Objekt und dem zumindest einen Sensor verwendet wird.
  • Eine Fourier-Transformation kann im Rahmen der Analyse der entnommenen Funktionswerte oder von deren Phasenverläufen angewendet werden, was eine einfache Berechnung ermöglicht.
  • Dabei kann zum Rekonstruieren oder zum Schätzen der Bildpunkte und/oder der räumlichen Driftgeschwindigkeit eines Offsets zwischen dem Objekt und dem zumindest einen Sensor die Fouriertransformation auf zumindest einen Teil von Messwerten von zumindest zwei verschiedener der Echosignale angewendet werden und ein Maximum davon bestimmt werden, wobei dies insbesondere durchgeführt wird gemäß b(z, y, z) = max{|FFT{en(t = τn)}|}.
  • Dies ist insbesondere vorteilhaft einsetzbar für den Fall, in dem eine Driftbeschleunigung und ein Driftruck und insbesondere alle höheren nicht-linearen Driftkomponenten gleich Null sind, falls es also nur eine lineare Driftkomponente, nämlich die Geschwindigkeit gibt. Trotz einer Drift kann so ein scharfes Bild des Objekts bestimmt werden.
  • Bevorzugt wird ein solches Verfahren, bei dem der Restphasenverlauf der Anzahl entnommener Funktionswerte differenziert wird und dadurch aus den entnommenen Funktionswerten neue Funktionswerte gebildet werden und aus den neu gebildeten Funktionswerten solche Bildpunkte oder ein Bild oder die Objektposition oder die Relativbewegung des Objektes bestimmt wird. Dabei kann die Differentiation des Restphasenverlaufes solange wiederholt werden, bis sich ein linearer oder konstanter Phasenverlauf in den neu gebildeten Funktionswerten einstellt.
  • Vorteilhaft ist eine Vielzahl derartiger Verfahrensweisen, bei denen der Determinismus des Phasenverlaufs darin besteht, dass der Phasenverlauf der Echosignale und eine Phase aufweist, wobei sich die Phase entsprechend einem quadratischen oder kubischen Funktionsverlauf mit der Zeit ändert oder wobei die entnommenen Funktionswerte eine linear oder quadratisch frequenzmodulierte Funktion beschreiben, und dass mit einem mathematischen Analyseverfahren zumindest ein den Funktionsverlauf charakterisierender Parameter bestimmt wird, z. B. ein Koeffizient eines Polynoms, das den Phasenverlauf beschreibt, z. B. der Koeffizient des linearen oder des quadratischen oder des kubischen Anteils dieses Polynoms.
  • Die Messungen an den Sensorpositionen werden bevorzugt in einem konstanten Zeitabstand mit einer Abtastzeit durchgeführt.
  • Eine reale Sensorposition kann bestimmt werden aus einer Summe einer scheinbar gemessenen Sensorposition und einem Offset B(n), wobei der Offset B(n) als Funktion einer scheinbar gemessenen n-ten Sensorposition durch den Funktionsverlauf charakterisierender Parameter beschrieben ist gemäß insbesondere B(n) = x0 + v0·n + 12 a0·n2 + 13 r0·n3 + ...mit x0 als einem Offset für den ersten Aperturpunkt bzw. für die erste Sensorposition, v0 als einer Driftgeschwindigkeit, a0 als einer Driftbeschleunigung und r0 als einem Driftruck.
  • Die analysierten Echosignale können von sowohl zumindest zwei verschiedenen scheinbar gemessenen Sensorpositionen als auch zumindest zwei verschiedenen Objektpositionen erfasst werden.
  • Ein solches Verfahren ist besonders geeignet zur Bestimmung einer Relativgeschwindigkeit zwischen dem Sensor und dem Objekt als der Relativbewegung oder einer Bewegungskomponente davon.
  • Bevorzugt wird eigenständig insbesondere eine Vorrichtung mit einem wellenbasierten Sensor zum Aufnehmen einer Abfolge von Echosignalen eines Objektes und mit einer Logik und/oder mit einem auf zumindest ein Programm zugreifenden Prozessor, wobei die Logik und/oder der Prozessor ausgestaltet sind zur Durchführung eines derartigen Verfahrens. Typisch für eine solche Anordnung mit SA-Verfahren ist ein Speicher, in dem die Werte der Anzahl größer 1 mehrerer der Echosignale gespeichert werden.
  • Insbesondere ist eine solche Vorrichtung mit einem Speicher oder einer Schnittstelle zu einem Speicher ausgestattet, wobei in dem Speicher das Programm gespeichert ist. In für sich bekannter Art und Weise kann eine solche Anordnung als Logik Hardware-Komponenten aufweisen, welche durch geeignete Verdrahtung oder integrierten Aufbau zur Durchführung erforderlicher Programme ausgelegt sind. Umsetzbar ist auch die Verwendung eines Prozessors einschließlich eines Prozessors eines über z. B. eine Schnittstelle angeschlossenen Computers, um ein geeignetes Programm auszuführen, welches zugreifbar gespeichert ist. Möglich sind auch kombinierte Lösungen aus fester Hardware und einem Prozessor.
  • Ein Ausführungsbeispiel wird nachfolgend anhand der Zeichnung näher erläutert, wobei bezüglich anhand des Standes der Technik beschriebener Aspekte auf die vorstehenden Ausführungen verwiesen wird. Es zeigen:
  • 1 eine Messsituation mit einem sich im Raum bewegenden Objekt und einer Sensorbahn, längs derer verteilt Mess- bzw. Sensorpunkte eines oder mehrerer wellenbasierter Sensoren angeordnet sind,
  • 2 schematisch zur Bestimmung erforderliche Komponenten im Falle eines sich im Bezugsraum bewegenden Objektes und eines sich bewegenden Sensors,
  • 3 schematisch zur Bestimmung erforderliche Komponenten im Falle eines im Bezugsraum feststehend angeordneten Objektes und eines sich bewegenden Sensors,
  • 4 beispielhaft eine gemessene und eine reale Apertur, wie sie verfahrensgemäß bestimmbar ist, und
  • 5 gemäß dem Stand der Technik eine Messsituation mit einem im Raum feststehend angeordneten Objekt und einer Sensorbahn, längs derer verteilt Mess- bzw. Sensorpunkte eines oder mehrerer wellenbasierter Sensoren angeordnet sind.
  • 1 zeigt ergänzend zu 5 zusätzlich Komponenten und Verfahrensgrößen, welche sich aus einer Bewegung des Objektes O ergeben, welches sich gleichzeitig zu einer dazu verschiedenartigen Bewegung des Sensors SS im Bezugsraum, hier dem kartesischen Koordinatensystem x, y, z bewegt. Bezüglich in 1 dargestellter Komponenten und Größen wird hier daher ergänzend Bezug genommen auf die umfassende Beschreibung zu 5 und die Herleitung der breitbandholographischen Rekonstruktionsformel.
  • Wie dies aus 1 ersichtlich ist, bewegt sich das Objekt O mit dem Streupunkt P oder mit einem Transponder längs einer Objektbahn ow. Der Streupunkt P oder der Transponder nimmt entsprechend über die Zeit t hinweg verschiedene Objektpositionen P(r) = (PO1 = (xO1, yO1, zO1)) , ..., (POn = (xOn, yOn, zOn)), ..., (POM = (xOM, yOM, zOM)) ein.
  • Entsprechend ändern sich innerhalb des Bezugsraums, d. h. z. B. des kartesischen Koordinatensystems x, y, z, insbesondere bei gleichzeitig mit der Zeit t bewegtem Sensor SS die direkten Messwege r1, ..., rn, ..., rM zwischen den Objektpositionen P(r(t)) und den gemessenen scheinbaren Sensorpositionen a1 = (x1, y1, z1)T, ..., an = (xn, yn, zn)T, ..., aM = (xM, yM, zM)T.
  • Eine Speichereinrichtung CM im Sensor SS dient zum Speichern von gemessenen oder durch den Prozessor oder sonstigen Komponenten verarbeiteten Daten, insbesondere den empfangenen Objektsignalen os, den Empfangsprofilen en(t) oder daraus bestimmten Daten. Außerdem oder alternativ kann in der Speichereinrichtung CM ein Programm zum Veranlassen des Sensors SS, insbesondere dessen Prozessors C zur gewünschten Datenverarbeitung gespeichert sein.
  • Um insbesondere bei einem solchen Bewegungsmodell trotzdem eine Bestimmung der Objektpositionen P(r(t)) zu ermöglichen, wird zunächst das für sich bekannte SA-Aufnahme und Bewegungsmodell erweitert. Die nachfolgenden Ausführungen werden in Form von Geschwindigkeits-Betrachtungen dargestellt. Eine Überführung der Darstellung in andere Bewegungsgrößen wie Beschleunigungsgrößen oder Weggrößen ist natürlich entsprechend möglich.
  • Wie dies in 2 dargestellt ist, bewegt sich der wellenbasierte Sensor SS entlang der Sensorbahn sw als einer Sensor-Trajektorie mit einer vektoriellen Sensor-Momentangeschwindigkeit vsr. Das Objekt SS bzw. der jeweilige Streukörper auf dem Objekt SS bewegt sich entlang der Objektbahn ow als einer Objekt-Trajektorie mit einer vektoriellen Objekt-Momentangeschwindigkeit vor.
  • Wie in 3 zu sehen ist, setzen sich die vektoriellen Sensor- bzw. Objekt-Momentangeschwindigkeiten vsr bzw. vor aus einem bekannten, z. B. gemessenen Sensor- bzw. Objekt-Anteil vsm bzw. vom und aus einem unbekannten Sensor- bzw. Objekt-Anteil Δvs bzw. Δvo zusammen. Der unbekannte Sensor- bzw. Objekt-Anteil Δvs bzw. Δvo ist z. B. aufgrund von Messfehlern oder aufgrund fehlender Informationen unbekannt.
  • Da bei SA-Verfahren nur die Relativbewegungen relevant sind, können die Bewegungsvektoren von Sensor SS und Objekt O durch Vektor-Subtraktion zu einem gemeinsamen Relativbewegungsvektor zusammengefasst werden. Die momentane Relativgeschwindigkeit vr setzt sich wiederum aus einem bekannten relativen Anteil vm und aus einem unbekannten relativen Anteil Δv zusammen. Der unbekannte relative Anteil Δv ist die Störgröße, die ohne die hier bevorzugte Verfahrensweise zu einem Versagen bei der Bildbestimmung führen würde.
  • Bei der Rekonstruktion eines Bildpunktes z. B. auf Basis der oben genannten breitband-holographischen Rekonstruktionsformel würden bei der unveränderten Berechnung die Aperturstützpunkte, d. h. gemessene scheinbare Sensorpositionen an(t) angenommen, die durch den bekannten Geschwindigkeitsvektor vm und den Messzeitpunkt bzw. der dann momentanen Zeit t vorgegeben werden. Diese Aperturstützpunkte weichen aber von den tatsächlichen Aperturstützpunkten ab, da von dem Geschwindigkeitsvektor dessen unbekannter relativer Anteil Δv unberücksichtigt bleibt, da der unbekannte relative Anteil Δv zunächst nicht bekannt ist. Neben der Abweichung durch die Aperturstützpunkte kann verfahrensgemäß auch ein unbekannter relativer Geschwindigkeitsvektor zwischen einem bewegten Objekt O mit verschiedenen Objektpositionen P(r) und den Aperturstützpunkten bestimmt werden, obwohl dabei aufgrund der verschiedenen Objektpositionen P(r) die Kohärenz verloren geht.
  • Nach der Rekonstruktionsformel nach der breitbandholographischen Abbildung wird eine Anzahl M von komplexen Funktionswerten en(t = τn) der Echosignale en(t), die aus der Anzahl M der Echosignale en(t) jeweils bei der Direktweg-Signallaufzeit τn entnommen wurden, aufsummiert. Diese einfache Aufsummierung ist bei Vorhandensein eines unbekannten Geschwindigkeitsvektors Δv nicht mehr zulässig bzw. führt zu unbrauchbaren Ergebnissen.
  • Abweichend davon wird nun vorgeschlagen, diese Anzahl M komplexer Funktionswerte en(t = τn) der Anzahl M der Echosignale en(t) andersartig auszuwerten, um so trotz des unbekannten Geschwindigkeitsvektors als unbekanntem relativem Anteil Δv von der momentanen Relativgeschwindigkeit vr zu gültigen Ergebnissen zu kommen. Zur weiteren Darstellung wird die Anzahl M der komplexen Amplitudenwerte der Anzahl M der Funktionswerte en(t = τn) zunächst zu einem Signal er(n) zusammengefasst. Es gilt hierbei für das Signal er(1) = e1(t = τ1), er(2) = e2(t = τ2), ..., er(M) = eM(t = τM).
  • Mit dieser Signaldefinition vereinfacht sich die oben genannte allgemein bekannte breitband-holographische Rekonstruktionsvorschrift zu
    Figure 00230001
  • Das Signal er(n) ist im allgemeinen komplexwertig und lässt sich daher auch in Betrag und Phase zerlegt wie folgt darstellen.
    Figure 00230002
  • Die Phase φr(n) wird im folgenden Restphase bzw. Restphasenverlauf genannt.
  • Wie aus den vorangegangenen Ausführungen ersichtlich ist, haben das Signal er(n) und somit auch die Restphase φr(n) im Allgemeinen für jeden Bildpunkt b(x, y, z) einen anderen Verlauf. Als Hypothese wird ein Punktstreuer an vorgegebenen Koordinaten des Koordinatensystems (x, y, z) angenommen. Falls diese angenommenen Koordinaten mit einer tatsächlichen Position Punktstreuers bzw. Objekts O mit der Position P(r) = PO1 = (xO1, yO1, zO1)T übereinstimmt und u. a. auch eine angenommene Geometrie, welche die Signallaufzeiten bestimmt, ideal mit der Wirklichkeit übereinstimmt, ist die Restphase φr(n) eine Konstante. Die komplexen Zeiger des Signals er(n) würden sich daher in diesem Fall bei Summation konstruktiv überlagern, der Bildpunkt b(x, y, z) hätte dann eine hohe Amplitude. Für den Fall, dass sämtliche die Signallaufzeit bestimmenden Größen ideal korrekt angenommen wurden, wäre die Restphase φr(n) für alle der Anzahl M der Punkte sogar identisch Null. Jede Abweichung zwischen den Annahmen und der tatsächlichen Messsituation führt zu einer Variation des Restphasenverlaufes φr(n).
  • Wie in 2 und 3 schon angedeutet wurde, kann auch eine krummlinige Bewegungstrajektorie für die Anzahl M der Aperturpunkte, d. h. der angenommenen Sensorpositionen an = (xn, yn, zn)T und der Objektpositionen P(r) = POn, durch einen linearen Bewegungsvektor angenähert werden, wenn durch die lineare Approximation nur Geometrie-Fehler hervorgerufen werden, deren Abmessungen klein gegenüber der Wellenlänge der Messsignal sind. Sogar wenn dies nicht der Fall ist, kann der zumindest der unbekannte Geschwindigkeitsvektor in Form des unbekannten relativen Anteils Δv des Geschwindigkeitsvektors häufig mit hinreichender Genauigkeit als linearer Bewegungsvektor angenähert werden, sofern durch die lineare Approximation des unbekannten Geschwindigkeitsvektors nur Geometrie-Fehler hervorgerufen werden, deren Abmessungen klein gegenüber der Wellenlänge der Messsignal sind. Der unbekannte Geschwindigkeitsvektor bzw. unbekannte relative Anteil Δv kann stets in zwei Komponenten zerlegt werden von denen eine in Richtung der Wellenausbreitung, d. h. in Richtung des direkten Weges rn zeigt und eine andere, die senkrecht dazu steht.
  • Die Komponente in Richtung des direkten Weges rn wird nachfolgend als radiale Relativgeschwindigkeit rvr bezeichnet. Unter Annahme eines konstanten linearen Bewegungsvektors bewirkt diese radiale Relativgeschwindigkeit rvr, das sich die Restphase φr(n) des Signals er(n) von Punkt zu Punkt linear ändert. Nimmt man nun noch an, dass die Anzahl M der Messungen in konstanten Zeitabständen durchgeführt wurden, so ist ersichtlich, dass das Signal er(n) eine sinusförmige Schwingung beschreibt.
  • Ist die radiale Relativgeschwindigkeit rvr gleich Null, ist die Frequenz dieser Schwingung gleich Null. In diesem Sonderfall ist die ursprüngliche Form der SA-Algorithmen und somit auch die oben genannte breitband-holographische Rekonstruktionsformel anwendbar.
  • Bei einer radialen Relativgeschwindigkeit rvr ungleich Null ist auch die Frequenz der Schwingung ungleich Null und proportional zur radialen Relativgeschwindigkeit rvr. Als vorteilhaft wird daher verfahrensgemäß vorgeschlagen, die Anzahl M der Sensorpositionen bzw. Abtastpunkte des Signals er(n) nicht wie üblich einfach aufzusummieren, sondern die Fourier-Transformation von ihnen zu berechnen.
  • Bevorzugt wird hierzu eine sogenannte schnelle Fourier-Transformation (FFT) verwendet. In einem ersten Schritt wird das Maximum des Betrages des resultierenden Fourier-Spektrums bestimmt. Das Maximum des Betrages des Fourierspektrums liefert dann ähnlich der üblichen breitband-holographischen Rekonstruktionsformel einen Wahrscheinlichkeitswert. Der Wahrscheinlichkeitswert gibt an, ob sich an der Position der Raumkoordinate r ein Punktstreuer bzw. das Objekt O befindet oder nicht. Die dementsprechende neuartige Bildrekonstruktionsformel lautet für den Bildpunkt b(x, y, z) = max{|FFT{er(n)}|}.und stellt eine erweiterte breitband-holographische Rekonstruktionsformel dar. Alternativ zur Bestimmung des Maximums könnten auch andersartige Maße bestimmt werden, die von der Leistung bzw. der Amplitude des Signals abhängen. Der Mittelwert oder die Leistung des Betragsspektrums sind Beispiele für Maße die ebenfalls geeignet wären, einen Wahrscheinlichkeitswert im oben genannten Sinne zu bilden.
  • Nun lässt sich aber aus dem Maximum des resultierenden Fourier-Spektrums FFT{er(n)} nicht nur ein für die Bildgebung geeigneter Wahrscheinlichkeitswert ableiten, sondern auch der unbekannte relative Anteil Δv des Geschwindigkeitsvektors vn. Die Lage des Maximums im Spektrum liefert zusätzlich die Frequenz der Schwingung und somit unmittelbar einen skalaren Messwert für die unbekannte radiale Relativgeschwindigkeit rvr zwischen dem Sensor SS und dem Objektpunkt P(r). Folglich kann über das vorgeschlagene Auswertungsprinzip nun jedem Bildpunkt b(x, y, z) eine radiale Relativgeschwindigkeit rvr zugeordnet werden.
  • Durch das dargestellte Verfahren wird eine Bildpunktbestimmung insbesondere auch bei bewegtem Objekt und zugleich bewegten Sensorpositionen, sowie eine Korrektur einer fehlerhaft beschriebenen Apertur ermöglicht. Bewegte Objekte O können unverfälscht abgebildet werden, auch wenn ihre Bewegung a priori nicht bekannt ist, und auch Fehler bei der angenommenen Bewegungsgeschwindigkeit des wellenbasierten Sensors SS können toleriert werden.
  • Nun ist es nicht zwangsläufig notwendig, dass das Signal er(n) einen linearen Restphasenverlauf φr(n) hat und daher eine sinusförmige Schwingung beschreibt. Ausreichend ist für das bevorzugte Verfahren, wenn der Restphasenverlauf φr(n) irgendeinem bestimmbaren Determinismus folgt und die Parameter dieses Determinismus bestimmt und dann so verarbeitet werden, dass sie einen Wahrscheinlichkeitswert liefern, der aussagt, ob von der Raumkoordinate r = (x, y, z)T ein Wellenfeld ausgeht oder nicht, oder der aussagt, ob die Raumkoordinate r = (x, y, z)T zum Bestimmen der Relativbewegung zwischen Objekt und Empfänger verwendet werden kann.
  • In dem Fall, in dem das Signal er(n) eine sinusförmige Schwingung beschreibt, sind die Parameter bzw. Funktionswerte des Determinismus zum einen die Amplitude der sinusförmigen Funktion, die einen Wahrscheinlichkeitswert liefert, der aussagt, ob von der Raumposition an der Raumkoordinate r = (x, y, z)T ein Wellenfeld ausgeht oder nicht, und zum anderen die Frequenz der sinusförmigen Funktion, die zum Bestimmen der Relativbewegung zwischen dem Objekt O und Empfänger RX des Sensors SS verwendet wird.
  • Zur Bestimmung der unbekannten Relativbewegung, insbesondere der unbekannten Relativgeschwindigkeit rvr zwischen dem Objekt O und Empfänger RX bzw. dem Sensor SS reicht es, auch eine Phasendifferenz Δφ von zumindest 2 der Anzahl M Restphasenwerte zu bilden, also Δφ = φr(k) – φr(l)mit k = 1 ... M; l = 1 ... M; k ≠ l. Diese Phasendifferenz Δφ ist unmittelbar ein Maß für die Abweichung zwischen einerseits der realen Geometrie und andererseits der bei der Entnahme von Funktionswerten der verschiedenen Funktionswerte en(t = τn) der Echosignale en(t) angenommenen Geometrie.
  • Die Phasendifferenz Δφ liefert auch unmittelbar den zwischen der Messung der zumindest zwei Echosignale en zurückgelegten radialen Weg, den der für das Objekt O rekonstruierte Bildpunkt b(x, y, z) und der Sensor SS während der Anzahl M der Messungen relativ zueinander zusätzlich zur angenommenen Bewegung zurückgelegt haben. Die zurückgelegte Entfernung ist proportional zu Δφ multipliziert mit der Wellenlänge des Sendesignals.
  • Im Folgenden wird ein in der Praxis häufig anzutreffender Fall dargestellt. Synthetische Aperturen werden oft über die Bewegung von Fahrzeugen oder über technische Einrichtungen, z. B. Roboterarme, Schrittmotoren oder Linearantriebe erzeugt. Sensoren SS zur Geschwindigkeits- oder Positionserfassung bei derartigen Fahrzeugen oder Maschinen sind häufig mit Fehlern behaftet, die sich bei der Datenverarbeitung aufintegrieren, also mit der Zeit immer größer werden. Abhängig vom verwendeten Sensor SS wachsen diese Fehlergrößen mit der Zeit häufig linear, quadratisch oder kubisch.
  • Ausgegangen wird nun von einer synthetischen Apertur mit der Anzahl M der räumlichen Stützpunkte bzw. scheinbar gemessenen bzw. angenommenen Sensorpositionen an. Tatsächliche, d. h. reale Apertur- bzw. Sensorpositionen an_real, welche eine Apertur aufspannen, weichen jedoch wegen der zuvor genannten Messfehler von scheinbar gemessenen Sensorpositionen an um einen unbekannten Offset B(n) ab. Die reale Apertur bzw. die reale Sensorposition an_real, mit der die Messung durchgeführt wurde, ist daher definierbar zu an_real = an + B(n). (1)
  • Wird ferner davon ausgegangen, dass die Messungen an den scheinbaren Sensorpositionen an in einem konstanten Zeitabstand, nämlich mit einer Abtastzeit Ta, durchgeführt werden. Der Offset B(n) kann dann als Funktion des Index n mittels beispielsweise der folgenden Bewegungsgleichung beschrieben werden: B(n) = x0 + v0·n + 12 a0·n2 + 13 r0·n3 + ... (2)
  • Hierbei bezeichnet als den Funktionsverlauf charakterisierender Parameter beispielsweise x0 einen Offset für den ersten Aperturpunkt bzw. für die erste angenommene Sensorposition a1, v0 eine Driftgeschwindigkeit, a0 eine Driftbeschleunigung und r0 einen Driftruck, d. h. eine Beschleunigungsänderung des Systems. Da der erste Aperturpunkt, d. h. die erste angenommene Sensorposition a1 frei im Raum gewählt wird, kann zumeist die Festlegung x0 = 0 (3)getroffen werden.
  • In 4 ist eine beispielhafte gemessene und reale Apertur für die Driftbeschleunigung a0 = 0 und den Driftruck r0 = 0 dargestellt. Hierbei ist deutlich eine lineare Drift erkennbar. Mittels der Driftbeschleunigung a0, dem Driftruck r0 etc. kann das Driftverhalten auch beliebig nicht-linear modelliert werden.
  • Wie schon dargestellt wurde, können für den Fall in dem die Driftbeschleunigung a0 und der Driftruck r0 und alle höheren nicht-linearen Driftkomponenten gleich Null sind, falls es also nur eine lineare Driftkomponente, nämlich die Geschwindigkeit v0 gibt, mit der erweiterten breitbandholographischen Rekonstruktionsformel b(x, y, z) = max{|FFT{er(n)}|}trotz der Drift ein scharfes Bild aus den Bildpunkten b(x, y, z) rekonstruiert und auch die räumliche Geschwindigkeit v0 geschätzt werden.
  • Es wird der Zusammenhang zwischen der Drift und der Beschleunigungskomponente als Determinismus bestimmt. Dieser Determinismus kann in einer veränderten Rekonstruktionsformel nach dem oben dargestellten Grundprinzip berücksichtigt werden. Dies kann wie folgt geschehen:
    Wie oben ausgeführt wurde, ergibt sich unter Annahme eines konstanten linearen Bewegungsvektors, dass sich die Restphase φr(n) von Punkt zu Punkt linear mit der Zeit t, bzw. dem Index n, ändert. Bei einer gleichmäßig beschleunigten Bewegung ändert sich die Restphase φr(n) von Punkt zu Punkt nicht linear mit der Zeit t, sondern quadratisch. Die Ableitung der Restphase φr(n) nach der Zeit, d. h. also die Differenz der Restphasendifferenz von Punktepaar zu Punktepaar, ändert sich in diesem Fall linear.
  • Eine mögliche und sinnvolle Verarbeitung des Signals er(n) kann daher in diesem Fall wie folgt aussehen. Zunächst zerlegt man das Signal er(n), wie schon oben dargestellt wurde, in Betrag und Phase:
    Figure 00310001
  • Basierend auf der Anzahl M der Abtastpunkte des Signals er(n) wird ein abgeleitetes Signal mit einer um Eins reduzierten Anzahl M – 1 neuer Abtastpunkte wie folgt gewonnen:
    Figure 00310002
  • Die Ableitung der Phase des diskreten Signals kann auch wie folgt dargestellt durchgeführt werden: e'r(n) = er(n + 1)·er(n)*
  • Dabei kennzeichnet der Stern „*” das konjugiert komplexe Signal. Um die bei dieser Operation hervorgerufenen Quadrierung der Amplituden zu vermeiden, kann das Signal e'r(n) auch wie folgt gewonnen werden:
    Figure 00310003
  • Unabhängig davon mit welcher der zuvor genannten Varianten das Signal e'r(n) bestimmt wurde, lautet die neue erweiterte breitband-holographische Rekonstruktionsformel, die auch bei beschleunigten Bewegungen anwendbar ist, dann b(x, y, z) = max{|FFT{e'r(n)}|}.
  • Bei dieser Verfahrensweise wird also der Bildpunkt b(x, y, z) nicht aus dem Abstand, sondern aus der Geschwindigkeit und/oder der Driftbeschleunigung a0 bestimmt.
  • Nachvollziehbar ist, dass dieses Vorgehen sukzessive auch für höhere nicht-lineare Bewegungskomponenten, z. B. bei Vorhandensein einer von Null verschiedenen Komponente wie dem Driftruck r0 wiederholt werden kann. Die Restphase φr(n) muss eben nur entsprechend oft abgeleitet werden.
  • Wenn die Ausführungen genau betrachtet werden, kann eine weitere interessante Option abgeleitet werden.
  • Wenn es sich bei der Driftbewegung um eine lineare Bewegung handelt, ändert sich die Restphase φr(n) von Punkt zu Punkt linear mit der Zeit t. Die abgeleiteten Restphasenwerte, also arg{e'r(n)}, sind demzufolge konstant. Folglich kann unter Annahme einer rein linearen Bewegungsdrift nun auch wieder die klassische Rekonstruktionsformel – nun aber angewendet auf die abgeleiteten Echosignale e'r(n) anstatt auf die Echosignale er(n) – verwendet werden. Eine sinnvolle Bildrekonstruktionsvorschrift lautet daher
    Figure 00320001
  • Es ist nachvollziehbar, dass dieses Vorgehen sukzessive auch für höhere nicht-lineare Bewegungskomponenten, z. B. bei Vorhandensein einer von Null verschiedenen Komponente wie dem Driftruck r0 wiederholt werden kann. Der Restphasenverlauf φr(n) wird eben nur entsprechend oft abgeleitet, und zwar genau einmal öfter abgeleitet, als bei der Rekonstruktionsformel bei der die Fourier-Transformation anstatt der einfachen Summe verwendet wird.
  • Für beide Fälle sollte jedoch beachtet werden, dass die Ableitung des Restphasenverlaufs φr(n) stets zu einem Informationsverlust führt und sich ein scharfes leicht interpretierbares Bild b(x, y, z) dann ggf. nur noch für einzelne dedizierte Reflektoren bzw. Objekte O im Aufnahmebereich und ggf. nur bei nicht geradlinig verlaufenden Aperturen ergibt. Für wellenbasierte Sensoren SS, die zu passiv reflektierenden Zielen als solchen Objekten O messen, z. B. im Fall von Primärradargeräten, kann dies im Normalfall ein Problem darstellen. Für wellenbasierte Sensoren SS, die zu kooperativen Zielen bzw. zu Transpondern an solchen Objekten O messen, z. B. im Fall von Sekundärradargeräten, ist das Problem durch Kodierung der Antwortsignale leicht zu umgehen.
  • Diese Art der Rekonstruktion, bei der die Ableitung des Restphasenverlaufes φr(n) genutzt wird, kann als ein Spezialfall des hier dargestellten Konzepts aufgefasst werden. Im hier dargestellten allgemeinen Fall entfällt die Einschränkung, dass nämlich die Ableitung der Phase stets zu einem Informationsverlust führt, da durch die Verwendung der FFT bzw. aller anderen nachfolgend vorgeschlagenen Verfahren, auf die Ableitung der Phase verzichtet werden kann.
  • Auf die Ableitung des Restphasenverlaufes φr(n) kann auch bei Bewegungen, die Komponenten höherer Ordnung, z. B. die Driftbeschleunigung a0 oder den Driftruck r0 haben, komplett verzichtet werden, wenn anstatt der Fourier-Transformation eine Transformation verwendet wird, die nicht von sinusförmigen Funktionen ausgeht.
  • In diesem Zusammenhang sind insbesondere eine sogenannte Wavelet-Transformation (Wellen-Transformation) und andere Zeit-Frequenz-Transformationen geeignet, welche nicht zwingend Integral-Transformationen sein müssen. Ein geeignetes Mutter-Wavelet lässt sich für die Wavelet-Transformation unmittelbar aus der komplexen Bewegungsgleichung ableiten. Bei einer linearen Drift ist das Mutter-Wavelet eine Sinusschwingung. Bei einer Drift mit Beschleunigungskomponente ist das Mutter-Wavelet ein sogenannter Chirp, der auch als linear frequenzmoduliertes Signal bezeichnet wird. Bei einer Drift mit einer Ruck-Komponente ist das Mutter-Wavelet ein quadratisch frequenzmoduliertes Signal und so weiter. Über eine mathematisch für sich genommen bekannte geeignete Transformation können dann die Radialkomponenten der Driftgeschwindigkeit v0 des Offsets, der Driftbeschleunigung a0, des Driftrucks r0 usw. geschätzt werden.
  • Es wäre natürlich auch möglich geeignete Mutter-Wavelets für zeitlich nicht äquidistant aufgenommen Signale zu bestimmen.
  • Generell sei an dieser Stelle angemerkt, dass die Komponenten nicht nur über geeignete Transformationen geschätzt werden können, sondern alternativ auch über mathematisch für sich genommen bekannte modellbasierte Ansätze. Auch die Übertragung dieser Verfahrensweise auf nicht-sinusförmige Signale ist mathematisch für sich genommen bekannt. Auch die Übertragung dieser Verfahrensweise auf zeitlich nicht äquidistant abgetastete Signale ist mathematisch für sich genommen bekannt.
  • Alle bisherigen Ausführen können unmittelbar auch auf Systeme übertragen werden, bei dem der wellenbasierte Sensor SS zu einem kooperativen Ziel, z. B. zu einem kohärent reflektierenden Backscatter-Transponder an oder als dem Objekt O misst.
  • Bei Anwendung mit kooperativen Zielen besteht zudem die Möglichkeit, zusätzlich die Geschwindigkeitsmessung bereits nach der ersten Messung am ersten Aperturpunkt bzw. an der ersten Sensorposition an mittels Auswertung der Dopplerverschiebung zu ermitteln. Dadurch können die vorher gewonnen Größen wie die Driftgeschwindigkeit v0 bzw. die Driftbeschleunigigung a0 und der Driftruck r0 genauer bzw. nach technisch einfacheren Rekonstruktionsvorschriften gewonnen werden. Z. B. kann die Driftbeschleunigung a0 aus der FFT der Driftgeschwindigkeiten v0 und damit als linearer Zusammenhang gewonnen werden. Für nicht kooperative Ziele ist das theoretisch auch möglich.
  • Durch eine kleine Modifikation können alle bisherigen Ausführen ebenfalls auf Anordnungen übertragen werden, bei denen eine Signalquelle ein Signal emittiert, dass nicht in einem phasenkohärenten Bezug zum Empfänger steht. Beispielsweise kann sich der aktive Sender TX, welcher das Sendesignal s(t) aussendet, am Objekt O selber befinden, so dass vom Objekt nicht das aktiv oder passiv reflektierte Objektsignal, sondern das Sendesignal selbst abgestrahlt wird. Optional kann am Objekt auch ein vom Sensor ausgesendetes Signal von einem Transponder aufgenommen, verarbeitet und zurückgesendet werden und die Quelle des zum Sensor SS gesendeten Objektsignals sein. In diesen Fällen wird das Signal, das von einem Objekt O bzw. von einem Transponder ausgestrahlt wird von zumindest zwei Empfängern, die sich in zueinander bekanntem Abstand befinden, aufgezeichnet und die Phasendifferenz zwischen diesen beiden von den Empfängern erfassten Signalen wird in der weiteren Auswertung verwendet. Zur Bestimmung der Phasendifferenz Δφ wird dann beispielsweise das erste der erfassten Signale mit dem konjugiert komplexen des zweiten der erfassten Signale multipliziert. Insbesondere sind in diesem Zusammenhang für sich genommen bekannte Sekundärradarsysteme einsetzbar.
  • Gemäß einem ersten Ausführungsbeispiel kann eine Umsetzung rein beispielhaft erfolgen auf einen Umgebungssensor und ein Odometer für Gabelstapler, auf automatisch geführte Fahrzeuge (AGV/Automated Guided Vehicles), auf mobile Roboter oder sonstige Fahrzeuge, die z. B. in einer Industriehalle oder Industrieumgebung oder auch auf der Straße fahren, oder auch auf Roboter, welche z. B. im Haushalt zum Staubsaugen etc. eingesetzt werden.
  • Der Sensor SS ist mit einer rundstrahlenden Antenne A oder einer Antennenanzahl N von rundstrahlenden Antennen A mit der Antennenanzahl N >= 1 am beispielsweise Fahrzeug angeordnet. Das Fahrzeug fährt und mit der Antenne A bzw. den N Antennen und es wird die Anzahl M der Messungen an den gemessenen scheinbaren Sensorpositionen an gemacht. Basierend auf dieser Anzahl M der Messungen wird ein Bild aus Bildpunkten b(x, y, z) der Umgebung mit der beschriebenen Verfahrensweise berechnet. Anstelle der Antennenanzahl N der Antennen A kann z. B. auch eine mechanisch exakt bewegbare Antenne, z. B. auf einer Pendelplatte oder auf einer rotierenden Plattform angebracht ist, verwendet werden, um so nacheinander die Antennenanzahl N der gemessenen scheinbaren bzw. angenommenen Antennen- bzw. Sensorpositionen an zu erzeugen.
  • Bei der Berechnung des Bildes bzw. der Bildpunkte b(x, y, z) bzw. bei der Bestimmung der angenommenen Apertur- bzw. Sensorpositionen an kann ein bekannter Anteil der Fahrzeug-Geschwindigkeit des Fahrzeuges, der z. B. über einen Rad-Drehgeber und einen Lenkwinkel oder über Beschleunigungssensoren bestimmt wird, mit genutzt werden. Die angenommene synthetische Apertur kann aber auch allein durch die geometrische Position der Antennenanzahl N der Antennen A bzw. Sensorpositionen an definiert sein.
  • Allein das derart aus Bildpunkten b(x, y, z) bestimmte Bild der Umgebung kann zur Navigation eines Fahrzeuges sehr hilfreich sein. Hervorzuheben ist hierbei, dass mit dem verwendeten Verfahren auch dann ein scharfes rekonstruiertes Bild erzeugt werden kann und somit z. B. Hindernisse und eine Fahrspur detektiert werden können, wenn eine Eigengeschwindigkeit des Fahrzeuges und somit die Aperturpositionen, d. h. verfahrensgemäß die gemessenen scheinbaren Sensorpositionen an a priori nicht exakt bekannt sind.
  • Im nächsten Schritt kann dann bei Bedarf für alle stark reflektierende Objekte O mit bekannter Eigengeschwindigkeit, also vorzugsweise für ortsfeste Objekte wie z. B. Wände, Maschinen, Gerüste, Bäume, Leitplanken im Bild vom Umfeld des Fahrzeuges basierend auf dem beschriebenen Verfahren die radiale Relativgeschwindigkeit rvr zum Fahrzeug bestimmt werden. Basierend auf mehreren unterschiedlich ausgerichteten radialen Relativgeschwindigkeiten rvr kann dann die momentane Relativgeschwindigkeit vr als der Fahrzeug-Geschwindigkeitsvektor des Fahrzeugs relativ zu dem zumindest einen Objekt berechnet werden. Mit den oben genannten erweiterten Verfahren könnten natürlich auch ein Beschleunigungsvektor des Fahrzeuges oder Bewegungskomponenten höherer Ordnung bestimmt werden.
  • Sobald die Fahrzeuggeschwindigkeit bekannt ist, können auch Winkellagen der einzelnen Rückstreuzentren als derartigen Objektpositionen P(r) über die Relation ihrer Geschwindigkeit zur vorbestimmten Fahrzeug-Gesamtgeschwindigkeit näherungsweise bestimmt werden.
  • Wenn die vektorielle Fahrzeuggeschwindigkeit durch eine anderweitige Messung bekannt ist, können auch Winkellagen der einzelnen Rückstreuzentren als derartige Objektpositionen P(r) über die Relation ihrer Geschwindigkeit zur vorbestimmten Fahrzeug-Gesamtgeschwindigkeit bestimmt werden.
  • Bei der Aufnahme der vom Objekt ausgehenden Wellen bzw. Objektsignale os als Messwerte im Sensor SS kann eine Eindeutigkeit der räumlichen Abtastung der reflektierten Wellen entweder mittels ausreichend hoher Messrate oder Anti-Aliasing-Ansätzen sichergestellt werden.
  • Zur Bestimmung oder Schätzung der Bewegung des Fahrzeuges und zur Unterscheidung aus Sicht des Fahrzeugs zwischen ortsfesten Objekten und bewegten Objekten O als Quellen der Objektsignale os wird vorzugsweise ein statistisches Filter wie z. B. ein Kalman-Filter oder ein Partikel-Filter verwendet.
  • Besonders exakt und vorteilhaft kann die Bewegung eines Fahrzeuges bestimmt werden, wenn der Sensor SS mit einer Antennenanzahl N von Antennen A auf dem Fahrzeug zu kooperativen Zielen wie z. B. Transpondern als dem oder den Objekten O misst. Schon ein einzelner Transponder an bekannter Position, d. h. mit bekannter Raumkoordinate r kann ausreichen, um mit dem beschriebenen Verfahren die räumliche Position, die Orientierung und die Geschwindigkeit des Fahrzeuges sehr exakt zu bestimmen und zwar auch dann, wenn die Eigengeschwindigkeit des Fahrzeuges nicht exakt bekannt ist. Ermöglicht wird somit verfahrensgemäß nicht nur die Bestimmung eines Abbildes eines Objektes oder von dessen Position aus Sicht eines bewegten Sensors SS. Umgekehrt kann bei bekannter oder konstanter Objektposition P(r) bzw. bekannter oder konstanter Objektbewegung auch eine für sich genommen unbekannte Position bzw. Bewegung des den Sensor SS tragenden Gerätes bestimmt oder zumindest geschätzt werden.
  • Gemäß einem zweiten Ausführungsbeispiel kann das Verfahren auch zur Ortung eines Transponders relativ zu einem mobilen, z. B. hand-getragenen Lesegerät als bzw. mit dem Sensor SS vorteilhaft verwendet werden. So kann z. B. ein mobiles Transponder-Lesegerät zusätzlich mit Beschleunigungssensoren ausgerüstet werden. Über zweifache Integration kann dann z. B. aus den Beschleunigungsdaten die Anzahl M der angenommenen Aperturstützpunkte bzw. Sensorpositionen an bestimmt werden. Aufgrund der üblichen Fehler bei der Ableitung von Positionswerten aus Daten von Beschleunigungssensoren werden die Positionsdaten ungenau sein und in aller Regel kaum für synthetische Aperturverfahren geeignet sein. Bei Anwendung der beschrieben Verfahrensweise können diese Fehler aber toleriert werden, da die Fehler üblicherweise einem Determinismus unterliegen, der durch die mehrfache Integration und die Sensoreigenschaften hervorgerufen wird.
  • Der Ablauf einer Messung kann beispielhaft wie folgt aussehen: Ein Benutzer schwenkt ein Lesegerät mit der Antennenanzahl N der Antennen A mit N >= 1 auf einer beliebigen Sensorbahn sw z. B. hin und her und auf und ab und vor und zurück oder er bewegt das Lesegerät in Kreisbahnen im Raum und erzeugt so eine synthetische Apertur bzw. die Anzahl M der angenommenen Sensorpositionen an als Aperturstützpunkten. Die Sensorpositionen an werden im Gerät über die Beschleunigungssensoren geschätzt. Mit dem vorstehend beschriebenen Verfahren wird dann der Ort des Transponders als oder an dem Objekt O relativ zu der beschriebenen synthetischen Apertur bestimmt. Die Ortsangabe des Transponders als oder an dem Objekt O kann zwar nie absolut exakt sein, sie gibt dem Benutzer aber einen sehr guten Hinweis zum Auffinden des Transponders bzw. des Objektes O.
  • Sehr vorteilhaft ist das beschriebene Verfahren auch zum gleichzeitigen Lesen mehrerer Transponder einsetzbar. Durch die örtliche Auflösung der Transponder im aus den Bildpunkten b(x, y, z) gebildeten Bild ist zum einen die Lage der Transponder bzw. der Objekte O zueinander und somit ihre Anordnung im Raum vor dem Lesegerät als dem Sensor SS bestimmbar und zum anderen ergeben sich sehr leistungsfähige Möglichkeiten zum sogenannten Raummultiplexverfahren. Diese Verfahren zur Ortung von Transpondern und zum Raummultiplex können besonders vorteilhaft bei sogenannten Backscatter-Transpondern eingesetzt werden, wie sie im Bereich der hochfrequenten Identifikation (RFID: Radio Frequency IDentification) für sich genommen bekannt sind.
  • Bezugszeichenliste:
    • A
      Antenne
      a0
      Driftbeschleunigung
      an = (xn, yn, zn)T
      gemessene scheinbare bzw. angenommene n-te Sensorposition
      an_real
      reale Sensorposition
      b(x, y, z)
      Bildpunkt
      B(n)
      unbekannter Offset zwischen tatsächlichen und scheinbar gemessenen Sensorpositionen an
      c
      Ausbreitungsgeschwindigkeit einer Welle
      C
      Prozessor
      CM
      Speichereinrichtung
      en(t)
      Echosignal
      er(n)
      Signal, aus der Anzahl M von Positionen en(t = τn) Funktionswert zu τn mit 1 < n < M der Anzahl M der gemessen Echosignale
      En(ω)
      Echospektrum
      Fn(an, r, ω)
      ideale Funktion Fn(an, r, ω)
      M
      Anzahl der Echosignale und Sensorpositionen
      n
      Element der Sensorpositionen 1, 2, ... n, ... M
      n(t)
      additives weißes Gauss'sches Rauschen
      N
      Antennenanzahl
      N(ω)
      Rauschspektrum
      O
      Objekt
      os
      Objektsignal
      ow
      Objektbahn
      p
      Übertragungswege
      P
      Streupunkt am Objekt
      P(r)
      Objektposition P(r) = PO1 = (xO1, yO1, zO1)T
      PTP1 = (xTP1, yTP1, zTP1)T
      ideale Reflektor-Position
      r
      Raumkoordinate des Objektes O
      r0
      Driftruck
      rn
      direkter Weg
      rvr
      radiale Relativgeschwindigkeit
      RX
      Empfänger
      SS
      Sensor
      sn(t)
      Sendesignal
      S(ω)
      Sendespektrum
      sw
      Sensorbahn
      t
      Zeit
      Ta
      Abtastzeit Ta
      TX
      Sender
      v0
      Driftgeschwindigkeit des Offsets
      vr
      momentane Relativgeschwindigkeit
      vm
      bekannter relativer Anteil von vr
      Δv
      unbekannter relativer Anteil von vr
      vsr, vor
      Sensor- bzw. Objekt-Momentangeschwindigkeit
      vsm, vom
      bekannter Sensor- bzw. Objekt-Anteil von vsr, vor
      Δvs, Δvo
      unbekannter Sensor- bzw. Objekt-Anteil von vsr, vor
      x, y, z
      kartesisches Koordinatensystem
      x0
      Offset für die erste Sensorposition a0
      αn
      Direktweg-Dämpfung
      αp
      über αn hinausgehende Dämpfung für jeden der Übertragungswege
      φ
      Phase eines Phasenverlaufs der Echosignale en(t = τn)
      φr(n)
      Restphase, Restphasenverlauf, als Phase des Signals er(n)
      Δφ
      Phasendifferenz
      τn
      Direktweg-Signallaufzeit
      τp
      mögliche Laufzeitverlängerungen
      ω
      Kreisfrequenz
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - WO 2006/072471 [0002]
    • - DE 19910715 C2 [0002]
    • - EP 0550073 B1 [0002]
    • - DE 19512787 A1 [0004]
    • - DE 10157931 C2 [0005]
    • - DE 102006005281 [0005]
    • - DE 102005037583 [0005]
  • Zitierte Nicht-Patentliteratur
    • - „H. Radar mit realer und synthetischer Apertur” von Klausing und W. Holpp, Oldenbourg, 2000, Kapitel 8, S. 213 ff. [0002]
    • - ”M. Younis, C. Fischer, and W. Wiesbeck, ”Digital beamforming in SAR systems”, Geoscience and Remote Sensing, IEEE Transactions on, vol. 41, pp. 1735-1739, 2003 [0002]
    • - M. Vossiek, V. Mágori, and H. Ermert, „An Ultrasonic Multielement Sensor System for Position Invariant Object Identification”, presented at IEEE International Ultrasonics Symposium, Cannes, France, 1994 [0003]
    • - M. Vossiek, „Ein Ultraschall-Mehrwandlersystem zur lageunabhängigen Objekterkennung für die industrielle Automation”, Fortschritt-Berichte VDI, Reihe 8: Mess-, Steuerungs- und Regelungstechnik, vol. 564, 1996 [0003]
    • - Stelzer, A., Fischer, A., Vossiek, M.: „A New Technology for Precise Position Measurement-LPM”, Microwave Symposium Digest, 2004, IEEE MTT-S International, Vol. 2, 6–11 June 2004, S. 655-658 [0005]
    • - R. Gierlich, J. Huttner, A. Ziroff, and M. Huemer, „Indoor positioning utilizing fractional-N PLL synthesizer and multi-channel base stations”, Wireless Technology, 2008, EuWiT 2008, European Conference on, 2008, pp. 49-52 [0005]
    • - S. Roehr, P. Gulden, and M. Vossiek, „Precise Distance and Velocity Measurement for Real Time Locating in Multipath Environments Using a Frequency-Modulated Continuous-Wave Secondary Radar Approach”, IEEE Transactions on Microwave Theory and Techniques, vol. 56, pp. 2329-2339, 2008 [0005]
    • - Shie Qian, „Introduction to Time-Frequency and Wavelet Transforms”, Prentice Hall 2001 [0006]
    • - S. L. Marple, Jr., „A tutorial overview of modern spectral estimation”, Acoustics, Speech, and Signal Processing, 1989, ICASSP-89, 1989 International Conference on, 1989, pp. 2152-2157 vol. 4 [0006]

Claims (16)

  1. Abbildungsverfahren zur Abbildung oder zur Lokalisierung eines Objektes (O) mit einem wellenbasierten Sensor (SS) mittels synthetischer Apertur, bei dem – von dem Objekt (O) von zumindest einer Objektposition (P(r) = PO1 = (xO1, yO1, zO1)T) ein Wellenfeld als ein Objektsignal (os) ausgeht, wobei das Objektsignal (os) erzeugt wird, indem entweder das Objekt (O) mit zumindest einer Wellenquelle bestrahlt wird und das Objekt (O) als Reaktion dieses Wellenfeld reflektiert oder streut oder indem das Objekt (O) selbständig eine Welle emittiert, und – dieses vom Objekt (O) ausgehende Objektsignal (os) von dem zumindest einen Sensor (SS) an zumindest einer Sensorposition (an = (xn, yn, zn)T) empfangen wird und dabei der Sensor (SS) bzw. die Sensoren (SS) und das Objekt (O) eine Anzahl (M) von zumindest zwei räumlichen Positionen relativ zueinander einnehmen und dadurch die synthetische Apertur bilden und – an jeder dieser Sensorpositionen (an = (xn, yn, zn)T) durch den Sensor (SS) ein Echosignal (en) aufgenommen wird, – aus den Echosignalen (en(t)) eine Anzahl (M) größer 1 mehrerer der Echosignale (en(t)) gebildet wird, bei denen der Amplituden- und/oder der Phasenverlauf eine Funktion einer Signallaufzeit oder einer Signallaufzeitdifferenz oder eine Funktion einer Entfernung oder einer Entfernungsdifferenz zwischen dem Objekt (O) und zumindest einem der Sensoren (SS) ist, und – aus dieser Anzahl (M) größer 1 der Echosignale (en(t)) zumindest ein Funktionswert en(t = τn) je Echosignal (en(t)) entnommen wird, wobei die entnommenen Funktionswerte einer angenommenen Raumkoordinate (r = (x, y, z)T) des Objekts (O) zugeordnet sind, dadurch gekennzeichnet dass, – die Anzahl (M) der entnommen Funktionswerte en(t = τn) der Echosignale (en(t)) an deren angenommenen Sensorpositionen (an) einen bestimmbaren, deterministischen und nicht konstanten Restphasenverlauf (φr(n)) aufweist, der von einer Abweichung realer Sensorpositionen (an_real) von angenommenen oder gemessenen Sensorpositionen (an) herrührt und/oder von einer Bewegung des Objektes (O) herrührt, und dass – dieser Restphasenverlauf (φr(n)) analysiert oder kompensiert wird und – auf dem Ergebnis der Analyse oder der Kompensation zumindest ein Bildpunkt (b(x, y, z)) des Objektes (O) oder die Objektposition (P(r)) des Objektes (O) oder die Relativbewegung (vr, r0) des Objektes (O) bestimmt oder geschätzt wird.
  2. Verfahren nach Anspruch 1, bei dem der Determinismus des Restphasenverlaufs darin besteht, dass er sich linear mit der Zeit (t) oder dem Index (n) ändert, oder dass die entnommenen Funktionswerte eine sinusförmige Funktion beschreiben und dass mit einem Frequenzanalyseverfahren eine Amplitude und/oder eine Frequenz und/oder die Phase der sinusförmigen Funktion bestimmt wird.
  3. Verfahren nach Anspruch 2, bei dem aus der Amplitude der sinusförmigen Funktion ein Wahrscheinlichkeitswert bestimmt wird, der aussagt, ob von der Raumkoordinate (r = (x, y, z)T) des Objekts (O) ein Wellenfeld ausgeht oder nicht.
  4. Verfahren nach Anspruch 2 oder 3, bei dem aus der Frequenz der sinusförmigen Funktion die Relativbewegung (vr, r0) zwischen dem Objekt (O) und dem zumindest einen Sensor (SS) bestimmt wird.
  5. Verfahren nach Anspruch 1, bei dem eine Phasendifferenz von zumindest 2 der entnommenen Funktionswerte gebildet wird und diese Phasendifferenz zum Bestimmen der Relativbewegung (vr, r0) zwischen dem Objekt (O) und dem zumindest einen Sensor (SS) verwendet wird.
  6. Verfahren nach einem vorstehenden Anspruch, bei dem eine Fourier-Transformation im Rahmen der Analyse der entnommenen Funktionswerte oder von deren Phasenverläufen angewendet wird.
  7. Verfahren nach Anspruch 6, bei dem zum Rekonstruieren oder zum Schätzen der Bildpunkte (b(x, y, z)) und/oder der räumlichen Driftgeschwindigkeit (v0) eines Offsets (B(n)) zwischen dem Objekt (O) und dem zumindest einen Sensor (SS) die Fouriertransformation auf zumindest einen Teil von Messwerten von zumindest zwei verschiedenen d Echosignalen (en) angewendet wird und ein Maximum davon bestimmt wird, dies insbesondere durchgeführt wird gemäß b(x, y, z) = max{|FFT{en(t = τn)}|}.
  8. Verfahren nach Anspruch 1, bei dem der Restphasenverlauf (φr(n)) der Anzahl (M) entnommener Funktionswerte differenziert wird und dadurch aus den entnommenen Funktionswerten neue Funktionswerte gebildet werden und aus den neu gebildeten Funktionswerten solche Bildpunkte (b(x, y, z)) oder ein Bild oder die Objektposition (P(r)) oder die Relativbewegung (vr, r0) des Objektes (O) bestimmt wird.
  9. Verfahren nach Anspruch 8, bei dem die Differentiation des Restphasenverlaufes (φr(n)) solange wiederholt wird, bis sich ein linearer oder konstanter Phasenverlauf in den neu gebildeten Funktionswerten einstellt.
  10. Verfahren nach einem der Ansprüche 1, 8 oder 9, bei dem der Determinismus des Phasenverlaufs darin besteht, – dass der Phasenverlauf der Echosignale und eine Phase (φ) aufweist, wobei sich die Phase entsprechend einem quadratischen oder kubischen Funktionsverlauf mit der Zeit ändert oder wobei die entnommenen Funktionswerte eine linear oder quadratisch frequenzmodulierte Funktion beschreiben, und – dass mit einem mathematischen Analyseverfahren zumindest ein den Funktionsverlauf charakterisierender Parameter, insbesondere ein linearer oder kubischer Verlauf, bestimmt wird.
  11. Verfahren nach einem vorstehenden Anspruch, bei dem die Messungen an den Sensorpositionen (an) in einem konstanten Zeitabstand mit einer Abtastzeit (Ta) durchgeführt werden.
  12. Verfahren nach einem vorstehenden Anspruch, bei dem eine reale Sensorposition (an_real) bestimmt wird aus einer Summe einer scheinbar gemessenen Sensorposition (an) und einem Offset (B(n)), wobei der Offset (B(n)) als Funktion einer scheinbar gemessenen n-ten Sensorposition (an) durch den Funktionsverlauf charakterisierender Parameter beschrieben ist gemäß insbesondere B(n) = x0 + v0·n + 12 a0·n2 + 13 r0·n3 + ... mit x0 als einem Offset für den ersten Aperturpunkt bzw. für die erste Sensorposition a1, v0 als einer Driftgeschwindigkeit, a0 als einer Driftbeschleunigung und r0 als einem Driftruck.
  13. Verfahren nach einem vorstehenden Anspruch, bei dem die analysierten Echosignale (en) von sowohl zumindest zwei verschiedenen scheinbar gemessenen Sensorpositionen (an) als auch zumindest zwei verschiedenen Objektpositionen (POn) erfasst werden.
  14. Verfahren nach einem vorstehenden Ansprüche zur Bestimmung einer Relativgeschwindigkeit (vr) zwischen dem Sensor (SS) und dem Objekt (O) als der Relativbewegung (vr, r0) oder einer Bewegungskomponente davon.
  15. Vorrichtung mit einem wellenbasierten Sensor (SS) zum Aufnehmen einer Abfolge von Echosignalen (en) eines Objektes (O) und mit einer Logik und/oder mit einem auf zumindest ein Programm zugreifenden Prozessor (C), wobei die Logik und/oder der Prozessor (C) ausgestaltet sind zur Durchführung eines Verfahrens nach einem vorstehenden Anspruch.
  16. Vorrichtung nach Anspruch 15 mit einem Speicher (CM) oder einer Schnittstelle zu einem Speicher, wobei in dem Speicher (CM) das Programm gespeichert ist.
DE102009030076A 2009-06-23 2009-06-23 Abbildungsverfahren mittels synthetischer Apertur, Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. Vorrichtung zur Durchführung der Verfahren Withdrawn DE102009030076A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102009030076A DE102009030076A1 (de) 2009-06-23 2009-06-23 Abbildungsverfahren mittels synthetischer Apertur, Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. Vorrichtung zur Durchführung der Verfahren
EP10006559A EP2270540A3 (de) 2009-06-23 2010-06-23 Abbildungsverfahren mittels synthetischer Apertur, Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. Vorrichtung zur Durchführung der Verfahren
US12/821,780 US20100321235A1 (en) 2009-06-23 2010-06-23 Imaging Method Utilizing a Synthetic Aperture, Method for Determining a Relative Velocity Between a Wave-Based Sensor and an Object, or Apparatus for Carrying Out the Methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009030076A DE102009030076A1 (de) 2009-06-23 2009-06-23 Abbildungsverfahren mittels synthetischer Apertur, Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. Vorrichtung zur Durchführung der Verfahren

Publications (1)

Publication Number Publication Date
DE102009030076A1 true DE102009030076A1 (de) 2010-12-30

Family

ID=42671945

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009030076A Withdrawn DE102009030076A1 (de) 2009-06-23 2009-06-23 Abbildungsverfahren mittels synthetischer Apertur, Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. Vorrichtung zur Durchführung der Verfahren

Country Status (3)

Country Link
US (1) US20100321235A1 (de)
EP (1) EP2270540A3 (de)
DE (1) DE102009030076A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2927838A1 (de) 2014-04-02 2015-10-07 Sick Ag Vorrichtung und Verfahren zum Identifizieren und Lokalisieren von Objekten
WO2018158281A1 (de) 2017-03-02 2018-09-07 Symeo Gmbh Verfahren und vorrichtung zur umfelderfassung

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2786170B1 (de) * 2011-11-28 2020-05-06 Lambda: 4 Entwicklungen GmbH Verfahren zur ermittlung einer positionsveränderung bzw. der nichtbewegung-und/oder geschwindigkeit eines objekts
RU2510685C2 (ru) * 2012-02-29 2014-04-10 Открытое акционерное общество "Корпорация "Фазотрон-Научно-исследовательский институт радиостроения" Радиолокационная станция с синтезированием апертуры и квазинепрерывным излучением
US9316734B2 (en) * 2012-10-19 2016-04-19 The Curators Of The University Of Missouri Free-hand scanning and imaging
US9046605B2 (en) * 2012-11-05 2015-06-02 The Curators Of The University Of Missouri Three-dimensional holographical imaging
WO2015192056A1 (en) 2014-06-13 2015-12-17 Urthecast Corp. Systems and methods for processing and providing terrestrial and/or space-based earth observation video
US10871561B2 (en) 2015-03-25 2020-12-22 Urthecast Corp. Apparatus and methods for synthetic aperture radar with digital beamforming
CA2990063A1 (en) 2015-06-16 2017-03-16 King Abdulaziz City Of Science And Technology Efficient planar phased array antenna assembly
WO2017091747A1 (en) 2015-11-25 2017-06-01 Urthecast Corp. Synthetic aperture radar imaging apparatus and methods
CN105785329B (zh) * 2016-03-28 2018-05-11 中国科学院电子学研究所 基于dpcmab技术的交错式sar数据采样方法
US9880561B2 (en) * 2016-06-09 2018-01-30 X Development Llc Sensor trajectory planning for a vehicle
WO2018217814A1 (en) 2017-05-23 2018-11-29 Urthecast Corp. Synthetic aperture radar imaging apparatus and methods
WO2018217902A1 (en) 2017-05-23 2018-11-29 King Abdullah City Of Science And Technology Synthetic aperture radar imaging apparatus and methods for moving targets
CN107290747B (zh) * 2017-06-12 2019-02-19 北京理工大学 一种大前斜视合成孔径雷达成像方法
DE102018100632A1 (de) * 2017-10-11 2019-04-11 Symeo Gmbh Radar-Verfahren und -System zur Bestimmung der Winkellage, des Ortes und/oder der, insbesondere vektoriellen, Geschwindigkeit eines Zieles
EP3698167A4 (de) 2017-11-22 2021-11-17 Urthecast Corp. Radar mit synthetischer apertur und verfahren
EP3816652A4 (de) * 2018-06-26 2022-03-16 Positec Power Tools (Suzhou) Co., Ltd Elektrische vorrichtung, die radar anwendet
US11555881B2 (en) * 2018-07-10 2023-01-17 Friedrich-Alexander-Universität Erlangen-Nürnberg Locating method for localizing at least one object using wave-based signals and locating system
CN112050830B (zh) * 2019-06-06 2023-06-02 华为技术有限公司 一种运动状态估计方法及装置
DE102019210506A1 (de) * 2019-07-16 2021-01-21 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Erfassen eines Umfeldes
CN110493710B (zh) * 2019-07-22 2021-01-26 香港中文大学(深圳) 轨迹重建方法、装置、计算机设备和存储介质
CN110488287A (zh) * 2019-07-30 2019-11-22 中国科学院电子学研究所 多基sar相位失配的校正方法、装置、计算设备及存储介质
CN112558070B (zh) * 2021-02-20 2021-05-25 北方工业大学 圆周扫描地基sar的频域成像方法及装置
CN113359207B (zh) * 2021-06-03 2023-02-03 中国人民解放军国防科技大学 基于太赫兹雷达的声致水面微动特征提取方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0550073B1 (de) 1991-12-30 1996-08-21 Deutsches Zentrum für Luft- und Raumfahrt e.V. System zur Ortung einer Vielzahl von Objekten und Hindernissen sowie zur Erfassung und Bestimmung des Rollzustands von beweglichen Objekten, wie Flugzeugen, Bodenfahrzeugen u.ä.
DE19512787A1 (de) 1995-02-19 1996-09-12 Horn Wolfgang Ortungssystem mit synthetischer Apertur
DE19910715C2 (de) 1999-03-10 2002-09-26 Deutsch Zentr Luft & Raumfahrt Verfahren zum autonomen Führen von Roboterfahrzeugen in Hallen sowie Radarstation zur Durchführung des Verfahrens
DE10157931C2 (de) 2001-11-26 2003-12-11 Siemens Ag Verfahren und Vorrichtungen zur Synchronisation von Funkstationen und zeitsynchrones Funkbussystem
WO2006072471A2 (de) 2005-01-04 2006-07-13 Siemens Aktiengesellschaft Funkbasiertes ortungssystem mit synthetischer apertur
DE102005037583A1 (de) 2005-08-09 2007-02-22 Siemens Ag Mikrowellen-RFID-System mit adaptiver Strahlformung
DE102006005281A1 (de) 2006-02-06 2007-08-16 Siemens Ag Elektronisch gesteuerte Antenne und dazugehöriges Verfahren zur Anwendung bei funkbasierten Systemen
EP1918737A1 (de) * 2006-11-04 2008-05-07 Sula Systems Limited Verfahren zur Auflösung von Mehrdeutigkeit bei Bestimmung und Ortung von beweglichen Zielen in Radaren mit synthetischer Apertur

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4527161A (en) * 1981-09-08 1985-07-02 The United States Of America As Represented By The Secretary Of The Navy 3D Imaging with stepped frequency waveforms and monopulse processing
US4471357A (en) * 1981-10-26 1984-09-11 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Pipelined digital SAR azimuth correlator using hybrid FFT/transversal filter
US5818383A (en) * 1981-11-27 1998-10-06 Northrop Grumman Corporation Interferometric moving vehicle imaging apparatus and method
DE3279581D1 (en) * 1981-12-28 1989-05-03 Nec Corp Synthetic aperture radar image processing system
US5122803A (en) * 1991-11-06 1992-06-16 The United States Of America As Represented By The Secretary Of The Army Moving target imaging synthetic aperture radar
US5448243A (en) * 1991-12-30 1995-09-05 Deutsche Forschungsanstalt Fur Luft- Und Raumfahrt E.V. System for locating a plurality of objects and obstructions and for detecting and determining the rolling status of moving objects, such as aircraft, ground vehicles, and the like
US5343204A (en) * 1993-07-29 1994-08-30 Unisys Corporation Auto-focusing correction for rotational acceleration effects on inverse synthetic aperture radar images
CA2201262C (en) * 1997-03-27 2006-06-13 Cal Corporation Synthetic aperture radar
FR2763398B1 (fr) * 1997-05-13 1999-08-06 Thomson Csf Procede de traitement du signal de reception d'un radar sar de type deramp
SE511952C2 (sv) * 1998-12-18 1999-12-20 Foersvarets Forskningsanstalt Ett SAR-radarsystem
JP4496954B2 (ja) * 2004-12-24 2010-07-07 日本電気株式会社 干渉型レーダー
JP4665590B2 (ja) * 2005-03-31 2011-04-06 日本電気株式会社 干渉型レーダ
EP1783517A1 (de) * 2005-11-04 2007-05-09 AGELLIS Group AB Multi-dimensionale Abbildungsmethode und Apparat
GB2464731A (en) * 2008-10-24 2010-04-28 Thales Holdings Uk Plc Method of strip-map synthetic aperture radar auto-focus processing

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0550073B1 (de) 1991-12-30 1996-08-21 Deutsches Zentrum für Luft- und Raumfahrt e.V. System zur Ortung einer Vielzahl von Objekten und Hindernissen sowie zur Erfassung und Bestimmung des Rollzustands von beweglichen Objekten, wie Flugzeugen, Bodenfahrzeugen u.ä.
DE19512787A1 (de) 1995-02-19 1996-09-12 Horn Wolfgang Ortungssystem mit synthetischer Apertur
DE19910715C2 (de) 1999-03-10 2002-09-26 Deutsch Zentr Luft & Raumfahrt Verfahren zum autonomen Führen von Roboterfahrzeugen in Hallen sowie Radarstation zur Durchführung des Verfahrens
DE10157931C2 (de) 2001-11-26 2003-12-11 Siemens Ag Verfahren und Vorrichtungen zur Synchronisation von Funkstationen und zeitsynchrones Funkbussystem
WO2006072471A2 (de) 2005-01-04 2006-07-13 Siemens Aktiengesellschaft Funkbasiertes ortungssystem mit synthetischer apertur
DE102005037583A1 (de) 2005-08-09 2007-02-22 Siemens Ag Mikrowellen-RFID-System mit adaptiver Strahlformung
DE102006005281A1 (de) 2006-02-06 2007-08-16 Siemens Ag Elektronisch gesteuerte Antenne und dazugehöriges Verfahren zur Anwendung bei funkbasierten Systemen
EP1918737A1 (de) * 2006-11-04 2008-05-07 Sula Systems Limited Verfahren zur Auflösung von Mehrdeutigkeit bei Bestimmung und Ortung von beweglichen Zielen in Radaren mit synthetischer Apertur

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
"H. Radar mit realer und synthetischer Apertur" von Klausing und W. Holpp, Oldenbourg, 2000, Kapitel 8, S. 213 ff.
"M. Younis, C. Fischer, and W. Wiesbeck, "Digital beamforming in SAR systems", Geoscience and Remote Sensing, IEEE Transactions on, vol. 41, pp. 1735-1739, 2003
M. Vossiek, "Ein Ultraschall-Mehrwandlersystem zur lageunabhängigen Objekterkennung für die industrielle Automation", Fortschritt-Berichte VDI, Reihe 8: Mess-, Steuerungs- und Regelungstechnik, vol. 564, 1996
M. Vossiek, V. Mágori, and H. Ermert, "An Ultrasonic Multielement Sensor System for Position Invariant Object Identification", presented at IEEE International Ultrasonics Symposium, Cannes, France, 1994
MAX,S.,et.al.: Localization of backscatter transponders based on a synthetic aperture secondary radar imaging approach. Sensor Array and Multichannel Signal Proc.Workshop,2008.SAM 2008,th IEEE 21-23 July 2008,S.437-440 Abschnitte 4,5
MAX,S.,et.al.: Localization of backscatter transponders based on a synthetic aperture secondary radar imaging approach. Sensor Array and Multichannel Signal Proc.Workshop,2008.SAM 2008,th IEEE 21-23 July 2008,S.437-440 bschnitte 4,5$ *
R. Gierlich, J. Huttner, A. Ziroff, and M. Huemer, "Indoor positioning utilizing fractional-N PLL synthesizer and multi-channel base stations", Wireless Technology, 2008, EuWiT 2008, European Conference on, 2008, pp. 49-52
S. L. Marple, Jr., "A tutorial overview of modern spectral estimation", Acoustics, Speech, and Signal Processing, 1989, ICASSP-89, 1989 International Conference on, 1989, pp. 2152-2157 vol. 4
S. Roehr, P. Gulden, and M. Vossiek, "Precise Distance and Velocity Measurement for Real Time Locating in Multipath Environments Using a Frequency-Modulated Continuous-Wave Secondary Radar Approach", IEEE Transactions on Microwave Theory and Techniques, vol. 56, pp. 2329-2339, 2008
Shie Qian, "Introduction to Time-Frequency and Wavelet Transforms", Prentice Hall 2001
Stelzer, A., Fischer, A., Vossiek, M.: "A New Technology for Precise Position Measurement-LPM", Microwave Symposium Digest, 2004, IEEE MTT-S International, Vol. 2, 6-11 June 2004, S. 655-658

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2927838A1 (de) 2014-04-02 2015-10-07 Sick Ag Vorrichtung und Verfahren zum Identifizieren und Lokalisieren von Objekten
US9424450B2 (en) 2014-04-02 2016-08-23 Sick Ag Apparatus and method for identifying and localizing objects
WO2018158281A1 (de) 2017-03-02 2018-09-07 Symeo Gmbh Verfahren und vorrichtung zur umfelderfassung
EP3660537A1 (de) 2017-03-02 2020-06-03 Symeo GmbH Verfahren und vorrichtung zur umfelderfassung
US11906655B2 (en) 2017-03-02 2024-02-20 Symeo Gmbh Method and apparatus for capturing the surroundings

Also Published As

Publication number Publication date
EP2270540A2 (de) 2011-01-05
US20100321235A1 (en) 2010-12-23
EP2270540A3 (de) 2011-02-23

Similar Documents

Publication Publication Date Title
DE102009030076A1 (de) Abbildungsverfahren mittels synthetischer Apertur, Verfahren zur Bestimmung einer Relativgeschwindigkeit zwischen einem wellenbasierten Sensor und einem Objekt bzw. Vorrichtung zur Durchführung der Verfahren
EP2270541B1 (de) Vorrichtung und Abbildungsverfahren mit synthetischer Apertur zum Bestimmen eines Einfallwinkels und/oder einer Entfernung
EP1834191B1 (de) Funkbasiertes ortungssystem mit synthetischer apertur
EP3123199B1 (de) Verfahren in einem radarsystem, radarsystem und vorrichtung eines radarsystems
DE102018108648B4 (de) Fmcw radar mit störsignalunterdrückung
DE102018101120B4 (de) Iterativer Ansatz zum Erzielen einer Winkelmehrdeutigkeitsauflösung
DE102019112469A1 (de) Auflösen von doppler-mehrdeutigkeiten in einem multi-input-multi-output-radar unter verwendung digitaler mehrfach-impulsfolgefrequenzen
EP2437081B1 (de) Verfahren und System zum Erfassen einer Szene
DE102010015723B4 (de) Verfahren und Vorrichtung zum Erfassen einer Bewegung eines Straßenfahrzeugs
EP3999876B1 (de) Verfahren und vorrichtung zum erfassen eines umfeldes
DE102012024998A1 (de) Verfahren zum Bestimmen einer lateralen Geschwindigkeit eines Zielobjekts relativ zu einem Kraftfahrzeug mit Hilfe eines Radarsensors, Fahrerassistenzsystem und Kraftfahrzeug
DE102014218092A1 (de) Erstellen eines Abbilds der Umgebung eines Kraftfahrzeugs und Bestimmen der relativen Geschwindigkeit zwischen dem Kraftfahrzeug und Objekten in der Umgebung
EP3821268B1 (de) Ortungsverfahren zur lokalisierung wenigstens eines objektes unter verwendung wellenbasierter signale sowie ortungssystem
WO2018166684A1 (de) Verfahren und radarvorrichtung zum ermitteln von radialer relativer beschleunigung mindestens eines zieles
EP3470874A1 (de) Radar-verfahren und -system zur bestimmung der winkellage, des ortes und/oder der, insbesondere vektoriellen, geschwindigkeit eines zieles
DE102018202864A1 (de) Verfahren und System für Synthetische-Apertur-Radarsignalverarbeitung
EP4211490A1 (de) Verfahren, radarsystem und fahrzeug zur signalverarbeitung von radarsignalen
EP4066006A1 (de) Simultane identifizierung und lokalisierung von objekten durch bistatische messung
DE102020205187A1 (de) Radarvorrichtung und Verfahren zur radarbasierten Lokalisierung und Kartierung
DE102020007603A1 (de) Kalibrieren von Arrayantennen basierend auf der Signalenergieverteilung in Abhängigkeit von der Geschwindigkeit
DE102015016553A1 (de) Autorisierung der Nutzung eines Kraftfahrzeugs
EP3752852A1 (de) Schätzung von kartesischen geschwindigkeiten von ausgedehnten radarobjekten mit einem radarsensor
DE102004057548B4 (de) Verfahren und Einrichtung zum kontinuierlichen Schätzen von Parametern sonarer Unterwasserschallquellen
DE102008019621A1 (de) Messvorrichtung und Messverfahren zur Bestimmung eines Abstands, einer Geschwindigkeit, einer Beschleunigung, eines Rucks, eines Eingangswinkels, einer Eingangswinkelgeschwindigkeit, einer Eingangswinkelbeschleunigung, und/oder eines Eingangswinkelrucks zwischen einer Sende- und Empfangseinrichtung und einem Objekt
DE102020007604A1 (de) Kalibrierung von Arrayantennen basierend auf Signalenergieverteilung in Abhängigkeit von der Geschwindigkeit

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20120103