DE69730278T2 - Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen - Google Patents

Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen Download PDF

Info

Publication number
DE69730278T2
DE69730278T2 DE69730278T DE69730278T DE69730278T2 DE 69730278 T2 DE69730278 T2 DE 69730278T2 DE 69730278 T DE69730278 T DE 69730278T DE 69730278 T DE69730278 T DE 69730278T DE 69730278 T2 DE69730278 T2 DE 69730278T2
Authority
DE
Germany
Prior art keywords
distance
scene
observation
estimating
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69730278T
Other languages
English (en)
Other versions
DE69730278D1 (de
Inventor
David R. The Colony van Rheeden
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Raytheon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Raytheon Co filed Critical Raytheon Co
Application granted granted Critical
Publication of DE69730278D1 publication Critical patent/DE69730278D1/de
Publication of DE69730278T2 publication Critical patent/DE69730278T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

  • Die vorliegende Erfindung betrifft die passive Abschätzung der Entfernung von einem Sensor oder Suchkopf zu einem Objekt und, genauer gesagt, ein System und ein Verfahren zum Abschätzen einer solchen Entfernung, basierend auf der Änderung der Größe des Objektes bei Änderung des Abstandes des Objektes von Interesse innerhalb einer Szenerie, von dem Sensor.
  • Es gibt eine Anzahl von Situationen, bei denen es wünschenswert ist, den Abstand zu einem Objekt von Interesse oder zu einem Ziel abschätzen zu können. Wenn beispielsweise aus irgendeinem Grund das Instrumentenlandesystem eines Flugzeugs außer Betrieb geht, dann ist es äußerst vorteilhaft, den Abstand von dem Eingang zur Landebahn zum Flugzeug hin zu kennen, um die Landung zu unterstützen. Im Fall der Fahrt mit einem Auto ist es höchst erwünscht, stets den Abstand zwischen den Fahrzeugen zu kennen, um Kollisionen zu vermeiden. Eine Luft-Luft-Rakete kann den geschätzten Abstand zum Zielobjekt hin dazu verwenden, den Detonationszeitpunkt ihres Gefechtskopfes zu bestimmen. Panzerabwehrraketen, welche auf von der Sichtlinie abweichenden Flugbahnen fliegen, verwenden die Entfernung, um die Zielobjektposition auf dem Schlachtfeld zu bestimmen.
  • Aktive Techniken zur Messung der Entfernungen, beispielsweise Radar, Ladar und Sonar, sind verbreitet eingesetzt worden. Der Nachteil von Lösungen mit aktiver Entfernungsmessung, insbesondere bei militärischen Anwendungen, besteht darin, daß sie von dem angegriffenen Zielobjekt leicht entdeckt werden. Wenn beispielsweise ein U-Boot-Kommandant Sonar einsetzt um die Position und Geschwindigkeit eines feindlichen Schiffes zu bestimmen, dann läuft er in große Gefahr, entdeckt zu werden. In solchen Situationen ist es vorteilhaft, die Entfernung zu dem Zielobjekt hin passiv abzuschätzen.
  • Die gebräuchlichste Technik, die für die passive Entfernungsabschätzung zu einem Zielobjekt hin verwendet wird, bedient sich eines Kalmanfilters zur Abschätzung der Entfernung nur aus Winkelmessungen. Anfänglich wird ein auf einem rechtwinkligen Cartesischen Koordinatensystem basierender ausgedehnter Kalmanfilter (EKF) dazu verwendet, die Zielobjektpositionen und Geschwindigkeiten in Cartesischen Koordinaten aus Winkelmessungen abzuschätzen. Analytische und experimentelle Untersuchungen haben gezeigt, daß das auf Cartesischen Koordinaten basierende EKF-Filter unter Unstabilitäten und Vorspannungen in dem Filter leidet, wie sie in folgender Veröffentlichung diskutiert sind: „Fundamental Properties and Performance of Bearings-Only Target Motion Analysis", von S. C. Nardone u. a., IEEE Transactions on Auto Control, Band AC-29, Nr. 4, September 1984, Seiten 775 bis 781. Eine Veröffentlichung mit dem Titel „An Angle-Only Tracking Filter in Modified Spherical Coordinates", von D. V. Stallard, AIAA Guidance, Navigation & Control Conference, Band 1, 17. bis 19. August, 1987, Seiten 542 bis 550, beschreibt die Verwendung modifizierter sphärischer Koordinaten (MSC), was die Probleme bei der EKF-Beobachtbarkeit, Entfernungsvorspannung und Kovarianz-Mißkonditionierung, vermindert. In dieser Veröffentlichung werden die Sichtlinienwinkel (LOS) einer Rakete sowohl als Filtermessungen als auch als Zustandsmessungen verwendet. Diese Veröffentlichung schlägt den folgenden Sechs-Zustands-Vektor vor: x = [ΘΘ .Ψω1/rṙ/r]T.
  • Hierin ist Θ der Steigungs-Sichtlinienwinkel, Θ . = dΘ/dt, Ψ ist der Gear-Sichtlinienwinkel, ω = (dΨ/dt)cosΘ, r ist die Entfernung zum Zielobjekt längs der Sichtlinie und ṙ ist die Entfernungsänderungsgeschwindigkeit zum Zielobjekt hin längs der Sichtlinie. Ein wichtiger Punkt, der zu beachten ist, besteht darin, daß der 1/r-Zustand nur bestimmt werden kann, wenn sich die Rakete in einer Richtung senkrecht zur Sichtlinie beschleunigt, da, wie mathematisch aufgezeigt werden kann, dann, wenn 1/r beobachtbar wird, die Entfernung passiv abgeschätzt werden kann.
  • Betrachtet man einen Befehl für einen Flug längs der Sichtlinie von einem Abschußort zu einem Zielobjekt, dann fliegt die Rakete so nah wie möglich an der Sichtlinie von dem Abschußort aus. Raketenbeschleunigungen senkrecht zu der Sichtlinie aufgrund eines Steigfluges, Sinkfluges oder aufgrund von Giermanövern sind unerwünscht, da solche Manöver dazu führen können, daß die Rakete auf den Boden trifft oder das Zielobjekt vollständig verfehlt. Da jedoch Lösungen mit einem nur Winkelmessungen vornehmenden EKF-Filter Manöver weg von der Sichtlinie erfordern, können diese Techniken nicht für Zielannäherungen nur auf der Sichtlinie verwendet werden.
  • Die US-Patentschrift 5,249,128 offenbart ein System und ein Verfahren zur Entfernungserfassung unter Verwendung einer passiven Infrarot-Sensoreinrichtung.
  • Die Erfindung ist in den Ansprüchen definiert, auf die nun Bezug genommen sei.
  • Gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung ist festgestellt worden, daß ein Sensor, beispielsweise eine Kamera, ein Infrarotdetektor, eine Rakete, welche einen abbildenden Suchkopf oder dergleichen enthält, welche die Größe des Objektes oder Zieles und die Größenänderungen des Objektes oder Zieles, wie sie innerhalb der aufgenommenen Szenerie oder dem Bild abhängig von der Zeit beobachtet werden, als Leitgröße verwenden, wenn sich der Abstand zwischen dem Sensor und dem Objekt ändert, eine abgeschätzte Entfernung zum Zielobjekt hin liefern. 1 zeigt die Geometrie, die zu verwenden ist, um eine Filterung abzuleiten, welche eine passive Abschätzung der Entfernung aus der Größe des Zielobjektes und der Änderung der Zielobjektgröße abhängig vom Abstand in der aufgenommenen Szenerie, zum Zielobjekt hin, vornimmt. Wenn x eine körperliche Dimension des Zielobjektes (beispielsweise Breite oder Höhe) ist, r der Abstand längs der Sichtlinie von dem Sensor zum Zielobjekt hin ist und Ψ der Winkel ist, unter dem x in dem Sensorbild erscheint, dann ist Ψ = x/r und d(tanΨ)/dt = (ẋr – xṙ)/r2 = ẋ/r – (tanΨ)(ṙ/r) und d(1/r)/dt = –(1/r)2ṙ. Wenn das Zielobjekt nicht seine Ansicht relativ zu der Rakete ändert, dann ist ẋ = 0 und d(tanΨ)/dt = –(tanΨ)ṙ(1/r).
  • Kurz gesagt kann obiges dadurch verwirklicht werden, daß eine Datenbank vorgesehen wird, die Daten enthält, mittels welchen die bestimmte Art eines Zielobjektes von Interesse bestimmt werden kann, das innerhalb der von dem Sensor beobachteten Szenerie erfaßt wird. Diese Datenbank ist auch mit Daten für jede Art von Zielobjekt versehen, die sich auf Zielobjektabmessungen als Funktion des Abstandes von dem Zielobjekt beziehen. Während die Einrichtung zur Entfernungsabschätzung in einer Richtung relativ zu dem Zielobjekt wandert, beobachtet der Sensor fortwährend das Zielobjekt und das System errechnet die Abmessungen des Zielobjektes und liefert abhängig hiervon eine Entfernungsabschätzung. Es ergibt sich, daß das System vollständig passiv ist und gegenüber dem Stand der Technik eine vollständig unterschiedliche Lösung für die Entfernungsabschätzung bietet.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt die Geometrie, die zu verwenden ist, um ein Filter abzuleiten, welches passiv eine Entfernungsabschätzung aus der Zielobjektgröße und der Änderung der Zielobjektgröße abhängig vom Abstand zum Zielobjekt vornimmt; und
  • 2 ist ein Blockschaltbild eines passiven Entfernungsabschätzungssystems gemäß der vorliegenden Erfindung.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Es sei auf 2 Bezug genommen. Hier ist ein Suchkopf in Gestalt eines Sensors gezeigt, der als Fernsehkamera 1 dargestellt ist, welche relativ zu einem Zielobjekt bewegt wird, beispielsweise dadurch, daß sie auf einem bewegten Fahrzeug, etwa einem Kraftfahrzeug zur Verwendung in einem System zur Vermeidung von Kollisionen montiert ist. Der Sensor erzeugt ein Bild 3 einer beobachteten Szenerie. Das Bild wird in digitaler Form entweder direkt oder durch Umwandlung von analoger in digitaler Form mittels eines Umsetzers 5 dargeboten. Dies liefert eine Gruppe von Zahlen, welche die beobachtete Intensität an jedem Pixel des beobachteten Bildes repräsentieren. Die Intensität kann beispielsweise die Lichtmenge sein, welche empfangen wird, oder die Menge von Wärme, welche im Fall eines Infrarotdetektors detektiert wird. Diese Zahlen werden in einem Speicher 7 gespeichert. Ein Mikroprozessor 9 liest dann diese Zahlen im Speicher 7 ab und versucht die Größe des Zielobjektes von Interesse innerhalb des beobachteten Bildes daraus zu bestimmen, was übliche Technik ist, wie dies in der Veröffentlichung von W. K. Pratt, „Digital Image Processing", John Wiley & Sons, 1978, Seiten 471 bis 550 diskutiert ist. Solches liefert eine augenblickliche horizontale Zielobjektabmessung und eine augenblickliche vertikale Zielobjektabmessung. Dieses Verfahren und die Rechnung werden kontinuierlich wiederholt, beispielsweise dreißig Datensätze je Sekunde, während der Abstand zwischen dem Zielobjekt und dem Sensor sich gleichzeitig ändert, wobei sich der Sensor im allgemeinen in Richtung auf das Zielobjekt bewegt. Die Erfindung erfordert jedoch lediglich eine bekannte Relativbewegung zwischen Zielobjekt und Sensor, vorzugsweise aufeinander hin. Wenn der Sensor sich an das Zielobjekt annähert, dann vergrößern sich die Zielobjektabmessungen innerhalb des Bildes der Szene während jeder Beobachtung der Szene von Beobachtung zu Beobachtung. Die anfängliche Entfernung zwischen dem Sensor und dem Zielobjekt wird mittels einer Datenbank errechnet, welche Daten enthält, wobei die Datenbank die besondere Art des Zielobjektes (d. h., Art des Kraftfahrzeugs, Panzertyp, usw.) erkennt. Entweder ist die Zielobjektart von vornherein bekannt, wird durch eine Bedienungsperson oder wird durch ein automatisches Zielobjekterkennungssystem (ATR) bestimmt, wie dies in der Literaturstelle „Automatic Target Recognition: State of the Art Survey", von B. Bhanu, IEEE Transactions on Aerospace and Electronic Systems, Band AES-22, Nr. 4, Juli 1986, Seiten 364 bis 379, beschrieben ist. Ist einmal die Zielobjektart bekannt, dann können die durchschnittlichen Abmessung für die Zielobjektart dazu verwendet werden, eine anfängliche Entfernungsabschätzung zu errechnen.
  • Es sei 1 betrachtet. Ist x die durchschnittliche körperliche Höhe oder Breite der Zielobjektart und ist xinit die anfängliche Zielobjekthöhe oder -breite, wie sie durch den Mikroprozessor 9 in 2 innerhalb des ersten beobachteten Bildes gemessen wird, wobei f die Brennweite des Suchkopfes ist, dann ist die Abschätzung der anfänglichen Entfernung folgendermaßen zu errechnen: rinit = f(x/Xinit)
  • Das System enthält eine Datenbank als Teil der Mikroprozessorschaltung, wobei die Datenbank Daten bezüglich der Größe und/oder anderer Merkmale jeder der Arten von Zielobjekten enthält, mit denen ein Zusammentreffen erwartet wird. Solche Daten bezüglich dieser Zielobjekte für verschiedene Entfernungen von dem Zielobjekt zum Sensor im oben beschriebenen Sinn und eine Grobeinschätzung der anfänglichen Entfernung zum Zielobjekt werden an das System zu Beginn geliefert, obwohl die Entfernungseinschätzung nicht sehr genau zu sein braucht und mit einem Fehler um einen Faktor bis hinauf zu einer Größenordnung behaftet sein kann.
  • Mit der Eingabe der abgeschätzten Entfernung zum Zielobjekt trifft der Mikroprozessor 9 mit der Datenbank in der oben diskutierten Weise in Verbindung mit einem im System befindlichen ausgedehnten Kalman-Filter eine Vorhersage der Entfernung zum Zielobjekt aus der vorherigen Zielobjektabschätzung und addiert die Entfernung, welche durch den Sensor auf das Zielobjekt hin durchwandert wurde, wobei die erste vorhergesagte Entfernungsrerrechnung den in das System eingegebenen Abstandsschätzwert zum Zielobjekt verwendet. Das ausgedehnte Kalman-Filter schätzt die Größe des Zielobjektes und, aus mathematischen Gründen, schätzt das Inverse der Entfernung ab. Die Schritte, die bei Treffen der Vorhersagen bezüglich der Entfernung und Zielobjektgröße involviert sind, sind folgende:
    • a) Abschätzen der Entfernung zum Zielobjekt bei dem Sensor-Datensatz k – 1, was das 1/inverse der Entfernungsabschätzung bei dem Datensatz k – 1 ist;
    • b) Bestimmen der Größe des Objektes in körperlichen Dimensionen (Meter, Fuß, usw.) bei dem Datensatz k – 1 aus einer Abschätzung von tanΨ bei dem Datensatz k – 1 multipliziert mit der Entfernungsabschätzung bei dem Datensatz k – 1 gemäß 1;
    • c) Abschätzen der Entfernung zum Zielobjekt bei dem Sensordatensatz k unter Voraussetzung des Datensatzes k – 1, welch ersterer die Entfernungsabschätzung bei dem Datensatz k – 1 zuzüglich der Enfernung ist, welche von dem Sensor zwischen den Datensätzen k – 1 und k durchlaufen wurde;
    • d) Abschätzen der inversen Entfernung für den Datensatz k bei Voraussetzung des Datensatzes k – 1, welch ersterer eins, dividiert durch die Entfernungsabschätzung für den Datensatz k ist, wenn man den Datensatz k – 1 kennt;
    • e) Abschätzen des tanΨ des Zielobjektes beim Datensatz k unter Voraussetzung der Kenntnis von tanΨ beim Datensatz k – 1, wobei dieser tanΨ beim Datensatz k die Größe des Zielobjektes in körperlichen Dimensionen am Datensatz k – 1, multipliziert mit der inversen Entfernungsabschätzung für den Datensatz k ist, wobei der Datensatz k – 1 vorausgesetzt ist.
  • Die verbleibenden Schritte der Prozedur involvieren Standardgleichungen für das ausgedehnte Kalmanfilter, wie sie in der Veröffentlichung „Estimation Theory with Applications to Communications and Control", von A. P. Sage und J. L. Melsa, McGraw Hill, New York 1971 diskutiert sind. Diese Schritte umfassen einen Schritt der Errechnung eines Residuums und einer Residuumkovarianz, wobei die Größe des Objektes in dem Bild unter Vorsehen eines Fehlerterms zusammen mit einer Veränderlichen dazwischen sowohl vorhergesagt als auch gemessen wird. Das Filter versucht dann, den gemessenen Fehler durch Änderung des Schätzwertes in einer Richtung zu korrigieren, so daß der Fehler korrigiert wird. Das Bestreben ist es, den durchschnittlichen Fehler auf null zu bringen, um anzuzeigen, daß das System die Größe des Zielobjektes richtig vorhersagt. Wenn die Größenabschätzung richtig ist, dann bedeutet dies, daß die Entfernungsabschätzung gleichzeitig auch richtig ist. Ein Schritt der Einstellung des Verstärkungsgewinns des ausgedehnten Kalman-Filters bestimmt die Gewichtung, welche dem Residualterm zu geben ist, um die erforderlichen Korrekturen durchzuführen. Dies bestimmt die Geschwindigkeit, mit welcher die Korrekturen gemacht werden, wobei Probleme, beispielsweise Sensorstörungen berücksichtigt werden. Ein Schritt der Zustandsaktualisierung und der Kovarianz greift sich den Fehlerterm, multipliziert ihn mit einigen Verstärkungsfaktoren und addiert die resultierenden Korrekturen zu den vorausgehenden Schätzwerten der Entfernung und der Objektgröße.
  • Nimmt man an, daß der Zustandsvektor des ausgedehnten Kalman-Filters bei dem Sensorbild oder Sensor-Datensatz k – 1, nämlich xk–1 ein erstes Element (tanΨk–1) und ein zweites Element (1/r)k–1 enthält, dann sind die Gleichungen des ausgedehnten Kalman-Filters, welche das obige zum Ausdruck bringen, folgende:
  • 1. Zustandsvorhersagen
  • Figure 00080001
    • x ^k–1 = (tanΨ)k–1r ^k–1
  • Figure 00080002
  • 2. Zustands-Kovarianz-Vorhersagen
  • Figure 00090001
    • Pk|k–1 = Φk,k–1Pk–1ΦTk,k–1 + Q
  • 3. Residuum und Residuum-Kovarianz
    • vk = (tanΨ)k,measured – (tanΨ)k|k–1
    • H = [1 0]
    • Sk = HPk|k–1HT + σ2tanΨ
  • 4. Kalman-Verstärkung
    • Kk = Pk|k–1HTS–1k
  • 5. Zustandsaktualisierung und Kovarianz
    • x k = x k|k–1 + Kkνk
    • Pk = Pk|k–1 + KHPk|k–1
  • Die Ausdrücke qtanΨ und qΨ sind die Anlagen-Störungsveränderlichen für die Zustände tanΨ bzw.
    Figure 00100001
    Die veränderliche σ 2 / tanΨ ist die Messunsicherheit von tanΨ. Der Ausdruck ṙk–1 ist die bekannte relative Annäherungsgeschwindigkeit zwischen dem Sensor und dem Zielobjekt bei dem Sensor-Datensatz k – 1. Der Ausdruck ΔT stellt die Zeit dar, die zwischen den Sensor-Datensätzen k – 1 und k verstrichen ist.
  • Der anfängliche Zustandsvektor kann als X 0 = [tan(Ψ0)(1/rinit)]T errechnet werden, worin Ψ0 die anfängliche Zielobjektgrößenmessung ist und rinit die anfängliche Entfernungsabschätzung ist. Die anfängliche Entfernungsabschätzung wird aus den erwarteten Zielobjektabmessungen errechnet und die anfängliche Zielobjektgröße wird in dem Bild gemessen. Die anfängliche Zustands-Kovarianzmatrix P0 ist folgendermaßen anzugeben:
  • Figure 00100002
  • Das Element (2, 2) der Matrix Po wird unter Verwendung des Ausdrucks
    Figure 00100003
    errechnet (siehe „Introduction to the Theory of Statistics", von A. M. Mood, F. A. Graybill und D. C. Boes, 3. Ausgabe 1974, Seite 181, Gleichung 15).
  • Das ausgedehnte Kalman-Filter wie es hier definiert ist, ist ähnlich dem modifizierten Polarkoordinatenfilter (MPC), welches von Stallard in einer zuvor erwähnten Literatur beschrieben ist. Anstatt sich aber auf die Sichtlinienwinkel und die Sichtlinien-Winkelgeschwindigkeiten zu verlassen, verwendet dieses neue Filter die Zielobjektgröße.
  • Zwar wurde die Erfindung unter Bezugnahme auf eine spezifische bevorzugte Ausführungsform beschrieben, doch bietet sich dem Fachmann unmittelbar eine Vielzahl von Variationen und Modifikationen.

Claims (13)

  1. Verfahren zur Entfernungsabschätzung mit folgenden Schritten: Beobachten (1, 3, 5) einer Szenerie, welche ein Objekt enthält, zu einer Mehrzahl von aufeinanderfolgenden Zeitpunkten während einer Bewegung relativ zu der Szenerie; Bestimmen (7, 9) von Größeninformationen bezüglich des Objektes aus jeder Beobachtung der Szenerie; und Abschätzen (7, 9) einer Entfernung zu dem Objekt hin; dadurch gekennzeichnet, daß der genannte Abschätzungsschritt (7, 9) in der Weise ausgeführt wird, daß in Abhängigkeit von jeder Beobachtung der Szenerie die Abschätzung der Entfernung zum Objekt hin als eine Funktion der vorausgehenden Entfernungsabschätzung und als eine Funktion der Größeninformation aus der jüngsten Beobachtung der Szenerie durchgeführt wird.
  2. Verfahren nach Anspruch 1, bei welchem der genannte Abschätzungsschritt folgende Schritte enthält: Erzeugen (7, 9) einer Entfernungsvorhersage durch Einstellung der vorausgehenden Abschätzung der Entfernung als Funktion der Bewegungsgeschwindigkeit relativ zu der Szenerie und der abgelaufenen Zeit zwischen der jüngsten Beobachtung und der unmittelbar vorausgehenden Beobachtung; Abschätzen (7, 9) einer Größe des Objektes als Funktion der Entfernungsvoraussage; Vergleichen (7, 9) der abgeschätzten Größe mit der Größeninformation aus der jüngsten Beobachtung der Szenerie, um einen Größenfehler zu bestimmen; Bewirken (7, 9) einer Einstellung an der abgeschätzten Größe, welche den Grössenfehler vermindert, während eine proportionale Einstellung an dem Inversen der vorhergesagten Entfernung vorgenommen wird; und Erzeugen (7, 9) der Abschätzung der Entfernung durch Invertieren des justierten inversen Wertes der vorhergesagten Entfernung.
  3. Verfahren nach Anspruch 1, bei welchem der genannte Schritt der Abschätzung den Schritt des Filterns (7, 9) der Größeninformation enthält, welche während aufeinanderfolgender Beobachtungen der Szenerie gewonnen wird.
  4. Verfahren nach Anspruch 3, bei welchem der genannte Filterungsschritt (7, 9) unter Verwendung erweiterter Kalman-Filtertechniken ausgeführt wird.
  5. Verfahren nach Anspruch 1, welches folgende Schritte enthält: Bereitstellen (7, 9) einer Datenbank, welche Daten zur Identifizierung vorbestimmter Objekte und Daten zur Abschätzung einer Anfangsentfernung zu jedem vorbestimmten Objekt als Funktion einer beobachteten Abmessung davon enthält; Identifizieren (7, 9) des Objektes in der Szenerie durch vergleichende Abschätzung der Daten von einer ersten der Beobachtungen der Szenerie mit Daten aus der Datenbank; und Verwenden der anfänglichen Entfernungsinformation in der Datenbasis zur Erzeugung (7, 9) einer anfänglichen Abschätzung der Entfernung zum Objekt in der Szenerie.
  6. Verfahren nach Anspruch 1, wobei der genannte Schritt des Beobachtens (1, 3, 5) mindestens dreimal zu unterschiedlichen Zeitpunkten ausgeführt wird.
  7. Verfahren nach Anspruch 1, welches den Schritt der Bereitstellung (7, 9) einer Datenbank enthält, welche Daten für die Identifizierung bestimmter Zielobjekte und Daten für die Abschätzung einer Anfangsentfernung zu jedem der genannten bestimmten Zielobjekte hin als Funktion von beobachteten Abmessungen der Zielobjekte enthält; wobei der genannte Beobachtungsschritt das Beobachten (1, 3, 5) einer Szenerie, welche ein Zielobjekt enthält, zu einer Mehrzahl beabstandeter Zeitpunkte während einer Bewegung relativ zu dem Zielobjekt umfaßt; wobei der Schritt der Bestimmung einer Größeninformation das Gewinnen (7, 9) von Daten aus jeder Beobachtung der Szenerie bezüglich einer Abmessung des genannten Zielobjektes enthält; und wobei der Schritt des Abschätzens das Identifizieren (7, 9) des Zielobjektes aus der Datenbank und die Verwendung (7, 9) der entsprechenden Anfangsentfernung aus der Datenbank umfaßt, um eine anfängliche Abschätzung einer verbleibenden Entfernung zu dem Zielobjekt vorzunehmen; und wonach dann wiederholt die verbleibende Entfernung zum Zielobjekt aus den genannten Daten abgeschätzt (7, 9) wird, die durch eine jeweilige Beobachtung und aus der vorausgehenden Abschätzung der verbleibenden Entfernung zum Zielobjekt gewonnen wird.
  8. System zur Entfernungsabschätzung, welches folgendes enthält: Mittel (1, 3, 5) zur Beobachtung einer Szenerie, welche ein Objekt enthält, zu einer Mehrzahl aufeinanderfolgender Zeitpunkte, während sich die Mittel zur Beobachtung relativ zu der Szenerie bewegen; Mittel (7, 9) zur Bestimmung einer Größeninformation bezüglich des Objektes aus jeder Beobachtung der Szenerie durch die genannten Beobachtungsmittel; und Mittel (7, 9) zur Abschätzung einer Entfernung zu dem Objekt hin; dadurch gekennzeichnet; daß die genannten Mittel (7, 9) zur Abschätzung diese Abschätzung der Entfernung zu dem Objekt hin in Abhängigkeit von jeder Beobachtung der Szenerie als eine Funktion einer vorhergehenden Abschätzung der Entfernung und als eine Funktion der Größeninformation aus der jüngsten Beobachtung der Szenerie vornehmen.
  9. System nach Anspruch 8, bei welchem die Mittel zur Abschätzung folgendes enthalten: Mittel (7, 9) zur Erzeugung einer vorhergesagten Entfernung durch Einstellung der vorausgehenden Abschätzung der Entfernung als eine Funktion der Bewegungsgeschwindigkeit zur Szenerie hin und der verstrichenen Zeit zwischen der jüngsten Beobachtung und der unmittelbar vorausgehenden Beobachtung; Mittel (7, 9) zur Abschätzung einer Größe des Objektes als Funktion von der vorhergesagten Entfernung; Mittel (7, 9) zum Vergleichen der abgeschätzten Größe mit der Größeninformation aus der jüngsten Beobachtung der Szenerie, um einen Größenfehler festzustellen; Mittel (7, 9) zur Vornahme einer Einstellung an der abgeschätzten Größe, wobei die Einstellung den Größenfehler vermindert, während eine proportionale Einstellung an dem Inversen der vorhergesagten Entfernung vorgenommen wird; und Mittel (7, 9) zur Erzeugung einer Abschätzung der Entfernung durch Invertieren des eingestellten inversen Wertes der vorhergesagten Entfernung.
  10. System nach Anspruch 8, bei welchem die genannten Mittel zur Abschätzung Filtermittel (7, 9) zur Filterung der Größeninformation enthalten, die während aufeinanderfolgender Beobachtungen der Szenerie gewonnen wurde.
  11. System nach Anspruch 10, bei welchem die genannten Filtermittel (7, 9) eine erweiterte Kalman-Filterungstechnik verwenden.
  12. System nach Anspruch 8, welches folgendes enthält: eine Datenbank (7, 9), welche Daten zur Identifizierung vorbestimmter Objekte sowie Daten zur Abschätzung einer anfänglichen Entfernung zu jedem vorbestimmten Objekt hin als eine Funktion einer beobachteten Dimension davon enthält; Mittel (7, 9) zur Identifizierung des Objektes in der Szenerie durch vergleichende Bewertung der Daten von einer ersten der Beobachtungen der Szenerie mit den Daten von der Datenbank; und Mittel (7, 9) zur Verwendung der anfänglichen Entfernungsinformation in der Datenbank zur Erzeugung einer anfänglichen Abschätzung der Entfernung zum Objekt in der Szenerie.
  13. System nach Anspruch 8, bei welchem die Mittel (1, 3, 5) zur Beobachtung in der Weise wirksam sind, daß sie die Szenerie mindestens dreimal zu jeweils unterschiedlichen Zeitpunkten beobachten.
DE69730278T 1996-07-17 1997-07-17 Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen Expired - Lifetime DE69730278T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US2191396P 1996-07-17 1996-07-17
US21913P 1996-07-17

Publications (2)

Publication Number Publication Date
DE69730278D1 DE69730278D1 (de) 2004-09-23
DE69730278T2 true DE69730278T2 (de) 2005-08-11

Family

ID=21806812

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69730278T Expired - Lifetime DE69730278T2 (de) 1996-07-17 1997-07-17 Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen

Country Status (2)

Country Link
EP (1) EP0820040B1 (de)
DE (1) DE69730278T2 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10025678B4 (de) 2000-05-24 2006-10-19 Daimlerchrysler Ag Kamerabasiertes Precrash-Erkennungssystem
US7453395B2 (en) 2005-06-10 2008-11-18 Honeywell International Inc. Methods and systems using relative sensing to locate targets
US7518713B2 (en) 2005-11-08 2009-04-14 Honeywell International Inc. Passive-optical locator
DE102007025373B3 (de) * 2007-05-31 2008-07-17 Sick Ag Visuelle Überwachung mit Entfernungsbestimmung und Plausibilitätsprüfung anhand von Bildgrößen
DE102011075674A1 (de) * 2011-05-11 2012-11-15 Continental Teves Ag & Co. Ohg Abstandsbestimmung mittels eines Kamerasensors
AT518940B1 (de) * 2016-08-03 2019-11-15 Zkw Group Gmbh Verfahren und Vorrichtung zum Messen eines Abstands zwischen einem ersten Fahrzeug und einem zweiten, dem ersten Fahrzeug unmittelbar vorausfahrenden, Fahrzeug
FR3062943B1 (fr) * 2017-02-10 2019-03-15 Continental Automotive France Procede de traitement d'images pour la detection d'un objet le long d'une route

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5249128A (en) * 1990-11-16 1993-09-28 Texas Instruments Incorporated System and method for determining the distance to an energy emitting object
US5282013A (en) * 1992-06-26 1994-01-25 Spar Aerospace Limited Passive ranging technique for infrared search and track (IRST) systems
US5479360A (en) * 1992-12-21 1995-12-26 Martin Marietta Corporation Target passive ranging without an ownship maneuver

Also Published As

Publication number Publication date
EP0820040A2 (de) 1998-01-21
EP0820040A3 (de) 1999-01-20
DE69730278D1 (de) 2004-09-23
EP0820040B1 (de) 2004-08-18

Similar Documents

Publication Publication Date Title
DE69012278T2 (de) Navigationssysteme.
DE69021354T2 (de) System zur Detektion eines Hindernisses.
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
US5867256A (en) Passive range estimation using image size measurements
DE69306069T2 (de) Bordnavigationssystem für ein Flugzeug mit einem Seitensichtradar mit synthetischer Apertur
DE69006709T2 (de) System zum Bestimmen der Position an Bord eines Luftfahrzeugs und seine Anwendungen.
EP3538843B1 (de) Schätzen einer eigenposition
EP0429952B1 (de) Autonomes Landesystem
EP0406879B1 (de) Verfahren zur Extraktion von Bewegungsfehlern eines ein kohärentes Abbildungsradarsystem mitführenden Trägers aus Radar-Rohdaten und Einrichtung zur Durchführung des Verfahrens
DE3937427A1 (de) Bildverarbeitungsgeraet
EP2381208B1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
DE19939935A1 (de) Verfahren zur Bestimmung der Relativbewegung zwischen Flugkörper und Ziel
DE69730278T2 (de) Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen
DE69425991T2 (de) Verfahren zur Verfolgung eines manovrierenden Zieles mit einem langsam abtastenden Sensor
DE3442598C2 (de) Leitsystem für Flugkörper
DE102017002637A1 (de) Verfahren zur Ermittlung der Eigenbewegung eines Fahrzeugs, insbesondere eines Kraftfahrzeugs
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
EP2409174B1 (de) Verfahren und einrichtung zum ermitteln von aspektwinkelverläufen
DE4218600C2 (de) Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE69205481T2 (de) Verfahren zur Selbstlenkung eines Flugkörpers gegen ein Ziel mittels Entfernungsmessungen.
DE102010029637A1 (de) Verfahren zum Objekt-Tracking in einem Ortungssystem und Ortungssystem
EP3882569B1 (de) Verfahren zur ermittlung eines zielobjekts, elektro-optisches sensorsystem, verfahren zur navigation eines lenkflugkörpers und lenkflugkörper
DE102014000436A1 (de) Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem und Verfahren zur Führung eines vorzugsweise als Flugkörper ausgebildeten Luftfahrzeugs
DE3642767B3 (de) Winkelverfolgungsradarsystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition