DE10292353B4 - Vorrichtung zur autonomen Navigation von Satelliten - Google Patents

Vorrichtung zur autonomen Navigation von Satelliten Download PDF

Info

Publication number
DE10292353B4
DE10292353B4 DE10292353T DE10292353T DE10292353B4 DE 10292353 B4 DE10292353 B4 DE 10292353B4 DE 10292353 T DE10292353 T DE 10292353T DE 10292353 T DE10292353 T DE 10292353T DE 10292353 B4 DE10292353 B4 DE 10292353B4
Authority
DE
Germany
Prior art keywords
image
satellite
data
revv
arithmetic unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10292353T
Other languages
English (en)
Other versions
DE10292353D2 (de
Inventor
Klaus Janschek
Valerij Tchernykh
Sergej Dyblenko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technische Universitaet Dresden
Original Assignee
Technische Universitaet Dresden
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Universitaet Dresden filed Critical Technische Universitaet Dresden
Priority to DE10292353T priority Critical patent/DE10292353B4/de
Application granted granted Critical
Publication of DE10292353D2 publication Critical patent/DE10292353D2/de
Publication of DE10292353B4 publication Critical patent/DE10292353B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/24Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Studio Devices (AREA)

Abstract

Vorrichtung für die Bestimmung der Position und Lage eines Satelliten unter Verwendung von Bildbewegungsinformationen mit einem Bilderfassungsgerät (56) zur Aufnahme von Bildern der Planetenoberflächen in definierten Zeitabständen, die zumindest in Teilbereichen überlappen, wodurch bestimmte Ausschnitte der Bilder (im folgenden Bildblöcke genannt) gleichen Inhalt haben, mit einer damit verbundenen Hochgeschwindigkeits-Verarbeitungseinheit (57) zur Ansteuerung des Bilderfassungsgeräts (56) und zur Durchführung einer Bildbewegungsverfolgung, bestehend aus
– einem Speicher zur Zwischenspeicherung von Bilddaten, einer Extraktion und Speicherung von Bildblöcken, wobei die Bewegung von Bildblöcken zwischen aufeinanderfolgenden und sich überlappenden Bildern in der Bildebene des Bilderfassungsgerätes (56) verfolgt wird,
– einem Vollbildbuffer (62), der das Vollbild zwischenspeichert,
– einer von einem Referenztimer (65) synchronisierten und die Extrapolation der Bildblöcke aufgrund der Daten über die Position und Lage des Satelliten (1) durchführenden ersten Recheneinheit (63) und
– einem 2D-Korrelator (64),
mit einer damit zusammengeschalteten digitalen Datenverarbeitungseinrichtung (58) zur Durchführung einer Bildbewegungsanalyse...

Description

  • Die Erfindung betrifft eine Vorrichtung zur oberflächenbasierten Navigation mit Hilfe optoelektronischer Bildbewegungsverfolgung zur autonomen Durchführung der Navigation von Satelliten. Als Satelliten im Sinne dieser Lehre sind künstliche, einen Himmelskörper auf einer Umlaufbahn umkreisende Flugkörper zu verstehen.
  • Autonome Satellitennavigation im Sinne einer „Echtzeit-Bereitstellung von Satellitenumlaufbahndaten und der augenblicklichen Lage (räumliche Orientierung) ausschließlich mit Bordmitteln" ist eine Voraussetzung für (halb-) autonome Satellitenoperationen wie Zeitplanung, Datenzuweisung und Ausrichtung der an Bord befindlichen Geräte oder Aufrechterhaltung der Satellitenumlaufbahn.
  • Bei einigen Missionen sind autonome Satellitenoperationen aufgrund des Charakters der Mission selbst erforderlich. Dies ist für den Vorbeiflug an Planeten oder Flüge zu weit entfernten Planeten der Fall, in denen entweder das Raumschiff ohne Kontakt zur Bodenstation oder die Signalverzögerung zu groß für eine Steuerung von dort aus ist.
  • Für Satellitenkonstellationen mit beliebiger Höhe stellt der gesamte Prozeß der Umlaufbahnbestimmung und -steuerung einen der wichtigsten Betriebskostenfaktoren dar. Gleichzeitig stellt dies auch einen bedeutenden Risikofaktor dar, in dem jeglicher Betriebsfehler und jegliches Versagen des Boden-Systems die Konstellation beschädigen oder zerstören könnte. Autonome Operationen können deshalb die Betriebskosten beträchtlich reduzieren.
  • Genaue Augenblicksmessdaten der Umlaufbahn und Daten von Onboard-Instrumenten (Bilder, Meßwerte etc.) können gleichzeitig verfügbar sein, um die Instrumentendaten eindeutig zu referenzieren. Außerdem benötigt die Messung eine geringere Genauigkeit als bei Systemen, die mit alten Daten arbeiten, weil die Daten an Genauigkeit verlieren, wenn sie auf in der Zukunft liegende Zeitpunkte extrapoliert werden.
  • Für genaue Umlaufbahn-Manöver und präzises Ausrichten von Onboard-Instrumenten wird eine größere Genauigkeit von Navigationsergebnissen, die auf alten Daten basieren und die auf spätere Zeitpunkte extrapoliert werden müssen, verlangt, damit diese den Bedürfnissen bei Echtzeitverarbeitung entsprechen. Bei Echtzeit-Systemen ist eine hochgenaue Voraussage der Umlaufbahn von geringerer Bedeutung.
  • Für erdorientierte Missionen sind die geeignetsten Onboard-Navigationsquellen die sogenannten GNSS-Dienste (GNSS – Global Navigation Satellite Systems), die durch vorhandene Systeme wie GPS oder Glonass, zukünftige Systeme wie Galileo oder das bodenbasierte DORIS bereitgestellt werden. Aber es sollte hervorgehoben werden, daß solche Konzepte keine vollständig autonomen Systeme sind, weil sie auf der Verfügbarkeit der Navigationssatelliten beruhen, die die benötigten Daten bereitstellen. Außerdem sind GNSS-Dienstleistungen im interplanetaren Raum nicht verfügbar.
  • Daher sind die besten Datenquellen für eine völlig autonome Navigation natürliche Objekte im Sonnensystem: Sonne, Planeten, usw. Die Beobachtung dieser Objekte und, wenn möglich, ihrer Ränder, ist eine Grundlage für Ermittlung der relativen Position von Satelliten. Solche Navigationssysteme benötigen Eingangsdaten von mehreren Onboard-Sensoren. Die Navigationsleistung wird durch Sichtbarkeit und Beobachtbarkeit der Bezugshimmelskörper, die Menge vorhandener A-priori-Bezugsdaten (Daten, die vor Beginn der Mission gesammelt wurden) wie Ephemeriden (Tabellen, in denen die Stellung eines Gestirns am Himmel oder sein Ort innerhalb seiner Bahn um einen Zentralkörper per für eine regelmäßige Folge von Zeitpunkten angegeben ist), Beobachtungs- und Formmodellen für Planetenränder begrenzt. Der Ausrichtungsfehler zwischen unterschiedlichen Instrumenten ist eine andere wichtige Fehlerquelle und macht eine genaue Onboard-Kalibrierung notwendig.
  • Für Satelliten auf Umlaufbahnen ist daher für gerätetechnisch einfache und robuste Systemlösungen die Verwendung des nächsten Objekts – die Oberfläche des umkreisten Planeten – die vielversprechendste Lösung.
  • Der traditionelle Ansatz für oberflächenbasierte Navigation ist die Landmarken-Navigation. Sie verwendet eine Kamera an Bord des Satelliten zur Aufnahme von Oberflächenbildern, eine Onboard-Datenbank mit Positions- und Gestaltsdaten von Landmarken, ein Onboard-Bildverarbeitungsystem zur Erkennung und Bestimmung der Landmarken-Positionen auf dem aufgenommenen Bild und einen Onboard-Computer, um die Resultate der Messung zu verarbeiten. Die Position und die Lage des Satelliten in einem Inertialsystem (Koordinatensystem in Raum und Zeit, in dem die Newton'schen Axiome der Mechanik gelten, ohne daß Trägheitskräfte, wie Zentrifugal- oder Corioliskräfte, auftreten. Praktisch kann als Inertialsystem ein Bezugssystem angesehen werden, das in der Milchstraße verankert ist. Ferner ist jedes geradlinig und gleichförmig dagegen bewegte System ebenfalls ein Inertialsystem) können mit passenden Algorithmen aus den Informationen über Planeten festgestellt werden: Geometrie-, Form-, Gravitations- und Rotationsmodell sowie Koordinatenpositionen aller ermittelten Landmarken auf dem Planeten. Normalerweise werden Landmarkeninformationen im Stadium der Missionsvorbereitung gesammelt und sind an Bord als Landmarkendatenbank vorhanden, die Bilder der Landmarken (in Raster- oder Vektorform) zusammen mit ihren Koordinaten umfaßt.
  • Der wirkungsvolle Gebrauch solcher Systeme hängt von den folgenden allgemeinen Faktoren ab:
    • • Inhalt der Onboard-Landmarkendatenbank
    • • Genauigkeit der Bezugsdaten, d. h. Landmarkenkoordinaten
    • • Robustheit der Landmarkenerkennungsalgorithmen gegenüber veränderlichem Aussehen der Landmarken
  • Der erste Faktor spielt eine bedeutende Rolle in der Länge der Schrittweite (Zeitintervall zwischen zwei Messungen) und der Konvergenzzeit der Navigationsalgorithmen. Zum Beispiel ergeben sich beim Vorhandensein von zwei Landmarken pro Umkreisung (wie bei LEO-Missionen) und einer Schrittweite von einem halben Umlauf Konvergenzzeiten von typischerweise 15 Umläufen.
  • Dies ist bei weitem nicht ausreichend für einige kurzfristige Betriebsanforderungen. Große Schrittweiten benötigen auch eine hohe Genauigkeit bei der Definition der Landmarkenpositionen. Qualitativ hochwertige Bilddaten zu sammeln und dem Koordinatensystem exakt zuzuordnen ist eine nichttriviale Aufgabe sogar für den Planeten Erde und wird noch viel schwieriger für andere Planeten. Eine Vergrößerung der Landmarkendatenbank macht einen großen Aufwand im Stadium der Datenaufbereitung notwendig und benötigt große Onboard-Speicherkapazität und effektive Verarbeitungseinrichtungen.
  • Das robuste und genaue Messen der Landmarkenposition wird ein nichttriviales Problem bei Änderungen der Beobachtungsbedingungen (unterschiedliche Belichtungswinkel) und Änderungen der Oberfläche (saisonale Änderungen von Landmarken, Ebbe und Flut für Küstenverläufe usw.). Um dieses Problem zu überwinden, müssen entweder Onboard-Bildkorrekturalgorithmen unter Verwendung von A-priori-Informationen oder ein erweiterter Satz von Landmarken für unterschiedliche Situationen, eingeführt werden. Die Kompliziertheit der Bildverarbeitung erhöht die Systemkosten und die Gefahr inkorrekter oder falscher Resultate. Die Notwendigkeit, eine große Menge an exakten A-priori-Informationen über Landmarken und eine zuverlässige, robuste Bildverarbeitung an Bord zur Verfügung zu haben ist das Haupthindernis für eine kosteneffektive Landmarken-Navigationslösung.
  • Aus der Patentschrift US 6 023 291 A ist ein Verfahren und eine Vorrichtung zur Navigation von Satelliten bekannt, bei dem die Bilder von Landmarken und dem Rand des Planeten benutzt werden.
  • Dieses Verfahren hat jedoch die folgenden Nachteile:
    • 1. Zusätzliche Speicherkapazität ist für die große Onboard-Datenbank von Landmarken erforderlich;
    • 2. Zusätzlicher Rechenaufwand ist für die Onboard-Korrektur von aufgenommenen Bildern nötig;
    • 3. Die genauen Koordinaten von Landmarken sind erforderlich, die Gewinnung und Vorbereitung sind aber sehr aufwendig.
  • Aus der Patentschrift US 4 730 798 A ist ein Verfahren und eine Vorrichtung zur Navigation von Satelliten bekannt, bei dem die Messung von Winkeldurchmesser des Planeten für die Bestimmung der Höhe der Satelliten genutzt wird.
  • Mit diesem Verfahren ist es jedoch nicht möglich, andere Parameter der Umlaufbahn zu ermitteln. Darüberhinaus sind die genauen Informationen über die Form des Planeten erforderlich.
  • Durch die Druckschrift „K. Janschek, T. Boge, V. Tchernykh, S. Dyblenko: „Image Based Attitude Determination using an Optical Correlator", Accepted Paper, 4th ESA International Conference an Spacecraft Guidance, Navigation and Control Systems, 1999, Noordwijk, The Netherlands" ist ein Verfahren zur Bestimmung der Position und Lage eines Satelliten unter Verwendung von Bildbewegungsinformationen bekannt. Es wird ein Verfahren nur zur Bestimmung der Rohlage des Satelliten beschrieben. Das dabei verwendete System bezieht sich auch auf die Planetenoberfläche. Die Planetenrotation wird nicht berücksichtigt.
  • Die Druckschrift „A. E. Johnson and L. H. Matthies, „Precise image-based motion estimation for autonomous small body exploration," in Proc. 5th Int 1 Symp. On Artificial Intelligence, Robotics and Automation in Space, Noordwijk, The Netherlands, June 1–3 1999, pp. 627–634" beinhaltet ein Verfahren zur Bildbewegungsanalyse, wobei eine Änderung der Lage zwischen zwei Bildaufnahmen bestimmt wird. Eine parallele schrittweise Bildbewegungsverfolgung ist nicht Gegenstand dieser Druckschrift.
  • Aus der Druckschrift US 4 671 650 A ist eine Vorrichtung zur Bestimmung der Position und Lage unter Verwendung von Bildbewegungsinformationen mit einem Bilderfassungsgerät, 2D-Korrelator zur Ermittlung der Verschiebung von Bildblöcken, Referenztimer, Recheneinheiten und externer Schnittstelle bekannt. Dabei erfolgt aber keine Bestimmung der Position oder Lage aus der Bildbewegung als Eingangsgrößen. Die mit dieser Vorrichtung zu ermittelnden Parameter unterscheiden sich von den Umlaufbahnparametern eines Satelliten.
  • Die Druckschrift US 5 104 217 A beinhaltet ein System zur Bestimmung der Lage eines Fluggerätes. Die Position oder Umlaufbahnparameter werden nicht ermittelt. Es erfolgt keine Bestimmung der absoluten Lage, sonder nur deren Änderung.
  • Durch die Druckschrift US 4 495 589 A ist ein Sytem bekannt, wobei nur die Geschwindigkeit über dem Grund berechnet. Dazu kommen eindimensionale Bilddaten zum Einsatz.
  • Ausgehend von den beschriebenen Nachteilen des Standes der Technik stellt sich die Erfindung die Aufgabe, eine Vorrichtung zur autonomen Echtzeit-Satellitennavigation zu schaffen, die unabhängig von Daten aus externen Quellen, z. B. einer Bodenstation, sind und mit einem Minimum von A-priori-Informationen auskommen, schnell konvergieren und robust gegenüber Oberflächenstörungen sind.
  • Diese Aufgabe wird mit den im Patentanspruch 1 aufgeführten Merkmalen gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen beschrieben.
  • Die Vorrichtung zur autonomen Navigation von Satelliten nutzt einen neuen Ansatz optoelektronischer Navigation unter Verwendung von Bildbewegungsverfolgung anstatt Landmarkenverfolgung. Diese Vorrichtung erfordert auch die Beobachtung der Planetenoberfläche mit einem Onboard-Bilderfassungsgerät, wobei jedoch andere allgemeinere Daten verwendet werden.
  • Das Navigationsprinzip basiert auf der Tatsache, daß die Bildbewegung in der Fokalebene eines an Bord befindlichen, auf den Planeten gerichteten Bilderfassungsgeräts die relative Bewegung von Satellit und beobachteter Planetenoberfläche erfaßt. Die augenblickliche Bildbewegung in der Fokalebene ist durch die Position und Lage des Satelliten relativ zur Bewegung der Planetenoberfläche definiert, die von der Form und der Rotation des Planeten abhängt. Dadurch können sowohl die Lage als auch Informationen über die Umlaufbahn aus einer Sequenz beobachteter Bilder mit einem Minimum von A-priori-Informationen ermittelt werden.
  • Insbesondere benötigt die vorgeschlagene Navigationsvorrichtung keine im Vorhinein gespeicherte Landmarkendatenbank. Der einfache Vergleich aufeinanderfolgender, in kurzen Zeitabständen aufgenommener Bilder hängt darüberhinaus nicht von den Lichtverhältnissen oder saisonalen Änderungen ab.
  • Bildbewegungsverfolgung basiert auf zweidimensionaler Korrelationsanalyse und erlaubt Korrelationsgenauigkeiten auf Sub-Pixel-Niveau. Der besondere Vorteil spektraler Bildinformationsverarbeitung liegt in der Unabhängigkeit von einzelnen Bildmerkmalen. Diese Art der Bildanalyse beruht im Gegensatz zur Landmarkenverfolgung allein auf dem Gesamtmuster des Bildes. Dadurch sind Korrelationsmethoden extrem robust gegenüber Bildstörungen und höchst zweckmäßig, wenn komplexe Bildstrukturen vorliegen, wie es bei Satellitenbildern der Fall ist.
  • Infolge der hohen Aktualisierungsgeschwindigkeit liefert die Vorrichtung akkurate Informationen zu Umlaufbahn und Lage schon in den ersten Umkreisungen.
  • Die Anwendung des vorgeschlagenen autonomen Navigationssystem kann von besonderem Interesse sein im Zusammenhang mit:
    • • Notfall- bzw. Ersatz-Navigationssystemen für Fernerkundungssatelliten unter Verwendung der herkömmlichen, sowieso an Bord befindlichen Fernerkundungssensoren als Bilderfassungsgerät,
    • • Intelligenten Bilderfassungsgeräten als Navigations- und Lagesensoren für kleine Satelliten,
    • • Datenfusionssystemen (Datenfusion: Zusammenführung verschiedenartiger Daten zur Ermittlung des Systemzustands),
    • • Notfall- bzw. Ersatz-Navigationssystemen für Planetenmissionen.
  • Datenfusion bedeutet die gemeinsame Nutzung von Meßdaten verschiedener Sensoren für die Bestimmung der Umlaufbahn oder Orientierung von Satelliten, wie z. B. Sternsensoren, Horizontsensoren, Telemetriedaten usw. Je mehr Daten vorhanden sind, desto genauer und robuster ist die Bestimmung.
  • Ersatz- oder Backup-Systeme sind notwendig in Fällen, wenn die Hauptnavigations- oder Lagebestimmungssysteme teilweise oder komplett ausgefallen sind. Hier können die Meßgrößen von alternativen Backup-Systemen die einzigen sein, die man für die Erfüllung der Missionsaufgaben benutzen kann.
  • Der Navigationsansatz basiert auf der Abhängigkeit der Bildbewegung in der Fokalebene eines Onboard-Bilderfassungsgeräts von der Relativbewegung zwischen Satellit und Planetenoberfläche. Im allgemeinen ist diese Bewegung aufgrund der veränderlichen Satellitenhöhe (elliptische Umlaufbahn) oder der unterschiedlichen Oberflächenbewegung (Relativbewegung aufgrund der Planetenrotation) bei unterschiedlichen Breiten nicht konstant. Das Onboard-Bilderfassungsgerät erfaßt diese Relativbewegung zwischen Satellit und Planet in dem auf die Fokalebene projizierten Oberflächenbild. Diese Bildbewegung bleibt ebenfalls nicht konstant und hängt zusätzlich von der augenblicklichen Lage des Satelliten ab.
  • Ein Vorteil der Vorrichtung besteht darin, daß nur ein einzelner Sensor benötigt wird. Ein kompaktes, robustes Bilderfassungsgerät ist unempfindlicher gegen unerwünschte mechanische Verformungen und Krafteinwirkungen als eine Anordnung mehrerer Sensoren, woraus verläßlichere und genauere Daten resultieren.
  • Weiterhin werden keine speziellen Muster benötigt, wodurch sich die Bildbearbeitung vereinfacht, da jegliche Art von Planetenoberflächen gleichermaßen geeignet ist und die Vorrichtung tolerant gegenüber den Beobachtungsbedingungen, wie Licht, jahreszeitliche Änderungen usw., ist.
  • Die Vorrichtung kommt mit einem Minimum gespeicherter A-priori-Informationen aus. Es brauchen keine Landmarken im Voraus gespeichert werden, wodurch an Bord kein Speicherplatz für eine Landmarken-Datenbank vorhanden sein muß. Möglicherweise ungenaue Daten über Landmarken haben daher keinen Einfluß auf die Navigationsergebnisse. Bei Verwendung der Vorrichtung wird keine externe Verarbeitungseinrichtung benötigt.
  • Weiterhin ist es für die Ausführung des Navigationsalgorithmus unnötig, vorab über spezielles Wissen bezüglich der Planetenform zu verfügen. Die Bestimmung der Lage liefert bei ungefährer Kenntnis der Planetenform vergleichsweise gute Ergebnisse. Die Bestimmung sowohl der Position als auch der Lage ist die Basis für einen vollständig autonomen Betrieb des Satelliten.
  • Für die Vorrichtung ist eine schnelle Bildverarbeitung erforderlich. Zur Gewinnung von Echtzeitdaten auf der Schattenseite des Planeten muß eine Infrarotkamera verwendet werden. Der Planet muß über eine erkennbare und stabile Oberflächenstruktur verfügen, was nicht bei allen Planeten des Sonnensystems der Fall ist. Der Arbeitsbereich ist bezüglich der Lage insofern beschränkt, als der Planet im Blickfeld des Bilderfassungsgeräts liegen muß.
  • Unter Bildbewegung wird die Bewegung von Ausschnitten des Abbildes der überflogenen Oberfläche in der Bildebene des Bilderfassungsgerätes verstanden, die auf der Relativbewegung zwischen Satellit und überflogener Oberfläche beruht und die sich dadurch bemerkbar macht, daß sich der gleiche Bildausschnitt in aufeinanderfolgend aufgenommenen Bildern an unterschiedlichen Stellen befindet. Die Pfade dieser Bildausschnitte oder Bildblöcke werden von den räumlichen Verhältnissen zwischen der Bildebene und dem beobachteten Oberflächenbereich bestimmt. Daher enthalten diese Pfade, bzw. diese Bildbewegungen, die Information über die 3D-Bewegung des Bilderfassungsgerätes relativ zur Oberfläche. Die Bildbewegung läßt somit Rückschlüsse auf die Bewegung des Satelliten über der überflogenen Oberfläche zu. Diese Information kann aus der gemessenen Bildbewegung gewonnen werden, um später für höherwertige Algorithmen zur Lage- und Positionsbestimmung genutzt werden zu können.
  • Eine Verbindung dieses Konzepts mit konventioneller Landmarken-Navigation ist ebenfalls möglich. Dadurch können einerseits die Genauigkeit verbessert werden und andererseits die an Bord mitzuführende Landmarken-Datenbank und damit die Kosten erheblich reduziert werden. Die Landmarken-Messungen unterstützen außerdem die Bestimmung des sechsten Parameters der Umlaufbahn, der Rektaszension Ω des aufsteigenden Knotens (Keplersche Bahnparameter). Die hohe Geschwindigkeit der Bildbewegungsverfolgung erlaubt die Implementation einer Landmarkenverfolgung, wodurch die Navigationsleistung verbessert werden kann, weil während des Passierens einer Landmarke oder einer Gruppe von Landmarken durch das Beobachtungsgebiet des Bilderfassungsgeräts mehrere Aktualisierungen der Informationen über die Umlaufbahnen erfolgen können.
  • Mit der Kenntnis aller Elemente der Umlaufbahn, die autonom bestimmt werden, kann die Lage in Roll-Pitch-Yaw-(RPY)-Koordinaten in das Inertialsystem transformiert werden. Daher gestattet ein solches Mischkonzept sogar eine vollständig autonome Navigation und Lagebestimmung im Bezugs-Inertialsystem.
  • Die von der Bildbewegungsanalyse bereitgestellten Navigations- und Lage-Daten können für Leistungssteigerungen existierender Onboard-Navigationssysteme, die mit anderen Sensoren arbeiten, verwendet werden.
  • Anhand nachfolgender Zeichnungen wird eine Vorrichtung zur autonomen Navigation von Satelliten näher erläutert. Dabei zeigen
  • 1 einen Satelliten an verschiedenen Positionen seiner Umlaufbahn
  • 2 die Verfahrensschritte zur Navigation
  • 3 den prinzipiellen Aufbau der Vorrichtung
  • 4 die unterschiedliche Abbildung gleicher Oberflächenobjekte in verschiedenen Lagen/Positionen des Satelliten
  • 5 die Bewegung von Bildblöcken in der Bildebene des Bilderfassungsgeräts
  • 6 das Referenzkoordinatensystem des Bilderfassungsgeräts
  • 7 das Prinzip der Bildbewegungsverfolgung
  • 8 die Definition der Navigationswinkel λ, χ, β
  • 9 die Bildblockverfolgung anhand der Bildbewegung zwischen verschiedenen Positionen
  • 10 eine Illustration des Begriffs „Fokus der Kontraktion"
  • 11 eine Illustration des Begriffs „Fokus der Ausweitung"
  • 12 das Prinzip der Umlaufbahnschätzung
  • 13 das Prinzip der Korrektur der Rohlage
  • 14 ein Ausführungsbeispiel der Vorrichtung
  • 1 zeigt eine geometrische Interpretation der Beobachtungsverhältnisse. Wenn das in dem sich auf der Umlaufbahn (2) um den Planeten (3) bewegenden Satelliten (1) angebrachte Bilderfassungsgerät in definierten Zeitintervallen mehrere Bilder so aufnimmt, daß aufeinanderfolgende Bilder gemeinsame, überlappende Bildteile aufweisen, kann die Bildbewegung als Bewegungspfad von Bildteilen oder Blöcken entlang der Fokalebene des Bilderfassungsgeräts erfaßt werden.
  • Die vom Sichtfeld des Bilderfassungsgeräts im jeweiligen Zeitpunkt des Überflugs aufeinanderfolgend erfaßten, überlappenden Bereiche sind durch die Lichtkegel (4, 5, 6) dargestellt. Aufgrund der Planetenrotation wandern die erfaßten Bereiche (7, 8, 9) der Planetenoberfläche ständig in die entsprechende Richtung. Daraus ergibt sich, daß die erfaßten Bilder in anderen Bereichen (10, 11) überlappen, als dies ohne die seitliche Bewegung aufgrund der Planetenrotation der Fall wäre.
  • Der Satellit (1) nimmt auf der ersten Position ein Bild auf und fliegt weiter. Während dieses Fluges wandert der abgebildete Bereich (7) mit der Planetenoberfläche. Auf der zweiten Position bildet der Satellit (1) den zweiten Bereich der Oberfläche (8) ab. Dieser Bereich (8) hat einen überlappenden Teil mit dem ersten abgebildeten Bereich (7). Der zweite Bereich (8) wandert langsamer als der erste Bereich (7), weil die Geschwindigkeit der Oberfläche von der geografischen Breite des Bereichs abhängig ist. Aufgrund dieser Verzögerung wird der dritte abgebildete Bereich (9) relativ zu dem zweiten Bereich (8) weniger verschoben als der zweite Bereich (8) relativ zu dem ersten Bereich (7). Für den Satelliten (1) in elliptischer Bahn (2) ändert sich die Geschwindigkeit entsprechend der Höhe. In gleichen Abständen aufgenommene Bilder werden deswegen verschiedene Überlappungsanteile haben. Zusätzlich bildet sich die Satellitenrotation in einer Verschiebung der Bereiche ab.
  • Es ist ersichtlich, daß für einen bestimmten Beobachtungsablauf und einen bestimmten Planeten (3) die überlappenden Bildteile für verschiedene korrespondierende Positionen des Satelliten (1) auf der Umlaufbahn (2) unterschiedlich sein können.
  • Die Überlappung zwischen zwei Bildern definiert den beiden Bildern gemeinsamen Bildinhalt. Dabei ist allerdings nicht der Bildinhalt selbst, sondern die Position der überlappenden Bereiche auf dem Bildsensor maßgebend.
  • Die Überlappung aufeinanderfolgender Bilder kann zusammen mit einem Mindestmaß von A-priori-Informationen für die Echtzeitbestimmung des Pfades des Satelliten (1) um den Planeten (3) und der Lage (Orientierung) des Satelliten benutzt werden.
  • Die hierfür benötigten A-priori-Informationen beschränken sich auf:
    • • Planetenparameter wie Gravitations- und Rotationsmodell und eine grobe Beschreibung der Form für die Bestimmung der Lage;
    • • Bilderfassungsgeräteigenschaften wie Brennweite, Pixelzahl und -größe und Anordnung des Bildsensors, geometrische Kalibrierkoeffizienten.
  • Das Gravitationsmodell des Planeten wird für die Beschreibung und die Berechnung der Satellitenbewegung um den Planeten benötigt. Das Bewegungsmodell ist notwendig für die meisten Methoden zur Berechnung der Umlaufbahn. Das Rotationsmodell braucht man, wenn die Oberfläche des Planeten als Referenz für die Navigation genutzt wird. Die Beschreibung der Planetenform ist nötig für die Bestimmung der relativen Orientierung des Satelliten. Minimal erforderliche Daten sind der Radius und der Abplattungskoeffizient des Planeten.
  • Die Navigation besteht aus mehreren Hauptstufen, wie in 2 dargestellt.
  • In der ersten Stufe werden von einem an Bord des Satelliten befindlichen Bilderfassungsgerät fortlaufend Bilder von der Planetenoberfläche (12) aufgenommen, die zumindest in Teilbereichen überlappen, wodurch bestimmte Ausschnitte der Bilder (im folgenden Bildblöcke genannt) gleichen Inhalt haben.
  • Diese Bilder werden in der Stufe der Bildbewegungsverfolgung (13) weiterverarbeitet. Dabei wird die Bewegung von Bildblöcken zwischen aufeinanderfolgenden, überlappenden Bildern in der Bildebene des Bilderfassungsgerätes verfolgt. Man erhält die zu unterschiedlichen Zeitpunkten gehörenden Positionsvektoren ein und desselben Bildblocks, die die Bewegung des Bildblocks zwischen den Zeitpunkten der Aufnahme der betrachteten Bilder beschreiben, für alle betrachteten Bildblöcke.
  • In der Stufe der Bildbewegungsanalyse (14) werden die für die Umlaufbahnschätzung benötigten Meßgrößen, d. h. die Navigationswinkel, und die Rohlage gewonnen. Die Bildbewegungsanalyse (14) ermittelt Informationen über die 3D-Bewegung des Satelliten aus den Positionsvektoren der betrachteten Bildblöcke. Diese Informationen betreffen Navigationswinkel und die Rohlage des Satelliten. Die Navigationswinkel, die die Bewegung des Satelliten relativ zur Planetenoberfläche beschreiben, sind von der Position des Satelliten abhängig. Eine Serie von Navigationswinkeln bestimmt eindeutig die Bewegung des Satelliten und dementsprechend die Umlaufbahn. Die Rohlage bezeichnet die Ausrichtung des Satelliten relativ zum Planeten und zur Umlaufbahn. Zur genauen Bestimmung der Lage des Satelliten müssen diese Rohlage-Daten in einem späteren Schritt korrigiert werden.
  • In der Stufe der Umlaufbahnschätzung (16) werden mit Hilfe eines Schätzalgorithmus, wie beispielsweise Kalman-Filter oder Batch-Schätzalgorithmus, auf der Basis von Meß- und Umlaufbahnmodellen aus den Navigationswinkeln Daten zur Position und Geschwindigkeit des Satelliten, z. B. in Form der augenblicklichen Keplerschen Umlaufbahnparameter (15), bestimmt.
  • Der nächste Schritt ist die Korrektur der Rohlage (17). Darin werden aus den Umlaufbahnparametern (15) Korrekturwinkel errechnet. Diese Korrekturwinkel werden anschließend dafür verwendet, die Lage des Satelliten im Roll-Pitch-Yaw-(RPY)-Koordinatensystem (18) aus der zuvor geschätzten Rohlage zu ermitteln.
  • Dieser Algorithmus liefert eine Schätzung von fünf Elementen der Umlaufbahn (außer Rektaszension Ω des aufsteigenden Knotens) und der Lage im RPY-Referenzkoordinatensystem. Diese Daten sind ausreichend für:
    • 1) Autonome Steuerung und Beibehaltung der Umlaufbahn (z. B. Überwindung von Störungen der Höhe bei LEO-Satelliten und Halten der Station);
    • 2) Nadir-Ausrichtung von Onboard-Instrumenten.
  • 3 zeigt den Aufbau einer Vorrichtung. Die Vorrichtung besteht aus den Hauptkomponenten Bilderfassungsgerät (56), Hochgeschwindigkeits-Verarbeitungseinheit (57), Datenverarbeitungsanlage (58), Speicher für A-priori-Daten (59) und Systemschnittstellen (60).
  • Ein an Bord befindliches Bilderfassungsgerät (56) nimmt in Zeitabständen, die von einer Hochgeschwindigkeits-Verarbeitungseinheit (57) definiert werden, Oberflächenbilder auf und leitet sie an diese weiter.
  • Die Hochgeschwindigkeits-Verarbeitungseinheit (57) führt die Bildbewegungsverfolgung durch, indem die vom Bilderfassungsgerät (56) kommenden Bilddaten zwischengespeichert werden, Bildblöcke extrahiert und gespeichert werden, anschließend eine Korrelationsanalyse der Bildblöcke paarweise durchgeführt wird, in deren Ergebnis die Bewegung der Bildblöcke in der Bildebene des Bilderfassungsgeräts (56) anhand der Positionsvektoren der Bildblöcke bekannt ist.
  • Die Positionsvektoren der Bildblöcke werden an eine digitale Datenverarbeitungsanlage (58) weitergeleitet, die die Bestimmung von Navigationswinkeln, die Schätzung der Keplerschen Umlaufbahnparameter und der Lage des Satelliten auf der Basis gespeicherter A-priori-Daten (59) durchführt.
  • Die Ergebnisdaten, d. h. die Keplerschen Umlaufbahnparameter und die Lage des Satelliten, werden an Systemschnittstellen (60) weitergeleitet. Diese Systemschnittstellen (60) ermöglichen die Interaktion zwischen der Vorrichtung und der Hauptbordrecheneinheit des Satelliten durch den Austausch von Befehlen und Daten.
  • Die Darstellung in 4 zeigt die unterschiedliche Abbildung gleicher Oberflächenobjekte für unterschiedliche Positionen des Satelliten. Das Bilderfassungsgerät (20) fliegt über die beobachtete Oberfläche (21). Ein Bildsensor (22) befindet sich in der Bildebene des Bilderfassungsgeräts. Der Bildsensor (22) bildet zwei Bilder von der Oberfläche ab, das erste Bild zum Zeitpunkt t0 und das zweite zum Zeitpunkt t1. Zum ersten Zeitpunkt erscheinen die Oberflächenobjekte (23, 24) auf dem Bildsensor. Im geeigneten Zeitabstand lassen sich diese Objekte auch zum zweiten Zeitpunkt auf den Bildsensor projizieren.
  • In 5 ist die Bildbewegung in der Bildebene zwischen zwei aufeinanderfolgenden Aufnahmen dargestellt.
  • Zwischen den beiden Zeitpunkten bewegen sich die Bilder dieser Oberflächenobjekte durch die Bildebene von Positionen (25, 26) zu Positionen (27, 28).
  • In 6 ist das Referenzkoordinatensystem (29) des Bilderfassungsgeräts dargestellt.
  • Das Referenzkoordinatensystem (29) des Bilderfassungsgeräts ist mit der Anordnung von Komponenten des Bilderfassungsgeräts verknüpft. Die U-Achse ist die optische Achse des Bilderfassungsgeräts. Die VW-Ebene schneidet die U-Achse aufrecht in dem optischen Zentrum der Linse. V- und W-Achsen sind parallel zu den Rändern des Bildsensors und die W-Achse zeigt überwiegend in die Richtung der Bildbewegung.
  • Das Zustandekommen der Bildbewegung ist ebenfalls in 6 dargestellt. Die Bildbewegung zwischen zwei Zeitpunkten wird durch einen Satz von Positionen von Bildblöcken im Referenzkoordinatensystem des Bilderfassungsgeräts zu den beiden Zeitpunkten t0 und t1 bestimmt.
  • Die Vektoren q sind die Positionsvektoren von Bildblöcken im Referenzkoordinatensystem des Bilderfassungsgeräts. Ein q-Vektor passiert das Linsenzentrum (einen Nullpunkt des Referenzkoordinatensystems des Bilderfassungsgeräts) und die Position des Bildblocks auf der Bildebene. Der erste Vektor q0 gehört zum ersten Zeitpunkt t0 und der zweite Vektor q1 zum zweiten Zeitpunkt t1. Die Verfolgung der Bildblöcke beginnt von festgelegten Positionen.
  • Das Oberflächenbild bewegt sich während der Bewegung des Satelliten über die Planetenoberfläche ständig in der Bildebene des Bilderfassungsgeräts. Der in 7 näher beschriebene Algorithmus für die Bildbewegungsverfolgung bestimmt den Ablauf der Bilderfassung, des Findens und Auslesens von abzugleichenden Bildblöcken und ihren Abgleich zwecks genauer Positionsmessung. Weiter im Text bezieht sich der Begriff Vollbild auf eine Mehrzahl von Bildpixeln in der Bildebene unabhängig von der Anzahl und Anordnung mehrerer Bildsensoren. Der Bildblock ist ein kleiner Ausschnitt des Vollbildes.
  • In 7 ist der Vorgang der Bildbewegungsverfolgung in Form eines Blockdiagramms dargestellt. Der Algorithmus realisiert eine parallele, d. h. zeitlich überlappende, schrittweise Bildbewegungsverfolgung. Eine Linie der Verfolgung besteht aus mehreren kleinen Schritten von Bildbewegungsverfolgungen.
  • Eine Linie beginnt mit der Erfassung des ersten Vollbildes, dann folgt das Auslesen von mehreren Referenzbildblöcken aus festgelegten Positionen, Abspeicherung der Bildblöcke, Extrapolation und Voraussage der Bewegung der Bildblöcke auf dem Bildsensor, Erfassung von nachfolgenden Vollbildern, Auslesen von mehreren aktuellen Bildblöcken aus extrapolierten Positionen und Abgleich mit den Referenzbildblöcken, Akkumulieren von kleinen gemessenen Blockbewegungen, Zuweisung von aktuellen Bildblöcken als Referenzbildblöcke und Wiederholen dieses Vorgangs, bis der Rand des Bildsensors erreicht ist. Dies bedeutet die möglichst volle Verfolgung jedes Bildblocks von einem Rand des Bildsensors zum anderen.
  • Die Größe der Schritte hängt vom Grad der Bildverzerrung ab, die durch den sphärischen Planeten, die Lage des Satelliten und Bilderfassungsgerätverzerrungen erzeugt werden kann. Dies wird aufgrund der externen Daten über die Position und Lage des Satelliten automatisch bestimmt.
  • Der einzelne Verfolgungsvorgang (EVV) besteht aus der Verfolgung vieler Pfade von Bildblöcken. Er wird zeitlich synchronisiert. Die Eingaben von aktuellen externen Daten über die Position und Lage des Satelliten werden ebenfalls synchronisiert. Dies ermöglicht eine genauere Voraussage der Bildblockbewegung.
  • Während jedes einzelnen Verfolgungsvorganges wird ein Tupel mit allen notwendigen Datenfeldern erzeugt:
    Beschreibung der Felder Code der Felder
    Startpositionen von Bildblöcken SPB0, SPB1
    Endpositionen von Bildblöcken EPB0, EPB1
    Endpositionen von Referenzbildblöcken EPRB
    Bilddaten von Referenzbildblöcken RBD
    Startzeitpunkt der Verfolgung SZP0, SZP1
    Endzeitpunkt der Verfolgung EZP0, EZP1
    Anzahl von Verfolgungsschritten AVS0, AVS1
    Schätzwerte für Navigationswinkel und Rohlage MW
    Schätzwerte für Umlaufbahnparameter und RPY-Lage ULD
    Zwischendaten ZDATA
  • EPRB enthält ganzzahlige Positionen von denen die Referenzbildblöcke ausgelesen wurden. EPB0 und EPB1 enthalten gemessene Positionen der verfolgten Bildblöcke mit Subpixel Auflösung. Einige Felder sind verdoppelt, sie enthalten Daten aus zwei Stufen des einzelnen Verfolgungsvorganges. Die Bildblöcke werden in jeder Stufe unabhängig von anderen Stufen verfolgt. Das bedeutet, daß die Stufen zeitlich getrennt sind. Die letzten Bildblöcke aus der ersten Stufe und die ersten Bildblöcke aus der zweiten Stufe werden aus demselben Vollbild ausgelesen. Das bedeutet auch, die Felder EZP0 und SZP1 bekommen denselben Wert.
  • Ein EVV ist beendet, wenn beide Stufen beendet sind. Werte in den Feldern AVS0, AVS1 sind nötig zur Voraussage von Fehlerparametern der Bildblockverfolgung. Die Fehlerparameter werden während der Schätzung von Umlaufbahnparametern benötigt.
  • Die gesamte Bildverfolgung erfolgt auf solche Weise, daß mehrere EVV gleichzeitig laufen können. Diese parallele Verfolgung ist notwendig, um ein Aktualisierungsintervall des Umlaufbahnfilters zu gewährleisten, das kürzer ist als die Zeit des Laufes der Bildblöcke von einem Rand des Bildsensors zum anderen.
  • Die Tupel von verschiedenen EVV befinden sich in der Reihe von einzelnen Verfolgungsvorgängen (REVV). Jedes Tupel wird automatisch initialisiert, wenn das Zeitintervall von dem Start des letzten Tupels den vorgegebenen Wert für das Aktualisierungsintervall des Umlaufbahnfilters überschreitet.
  • Die Stufen eines EVV sind beendet, wenn die verfolgten Bildblöcke den Rand des Bildsensors erreichen oder der letzte Abgleich von Bildblöcken nicht gelingt. Die Endzeiten der Verfolgung können daher nicht äquidistant sein. Die REVV wird ständig zur weiteren Analyse im Speicher gehalten. Die alten Tupel werden automatisch gelöscht.
  • Nach dem Start (30) wartet der Algorithmus auf die nächste Zeitmarke (31) und dann wird das erste Vollbild erfaßt (32). Das erste Tupel in der REVV wird erstellt (33). Ein Satz von Bildblöcken wird von den festgelegten Positionen aus dem ersten Vollbild ausgelesen (34) und als Referenzbildblöcke im Feld RBD des ersten Tupels der REVV abgespeichert. Die Auslesepositionen werden in Feldern SPB0, EPB0 und EPRB abgespeichert. Die Startzeit (festgelegt durch die Zeitmarke) wird in den Feldern SZP0 und EZP0 eingetragen. Das Feld AVS0 wird gleich Null.
  • Dann beginnt die Hauptschleife des Algorithmus. Zur nächsten Zeitmarke (35) werden die Positionen von Bildblöcken aus dem Feld EPRB extrapoliert (36). Dazu werden Daten über die Position und Lage des Satelliten benutzt. Die Position und Lage des Satelliten zu den vorigen Zeitpunkten werden aus dem Feld ZDATA genommen. Das Intervall für die Voraussage der Bildblockbewegung wird mit Δt bezeichnet. Das Intervall Δt wird so ausgewählt, daß während dieses Intervalls die Position und Lage des Satelliten mit ausreichender Genauigkeit bestimmt werden können. Das Δt wird automatisch verkürzt bei großen Bildverzerrungen. Der Verzerrungsgrad von fortbewegten Bildblöcken relativ zur originalen rechteckigen Form wird berechnet und mit einem vorgegebenen Schwellenwert Λ verglichen (37).
  • Falls der Verzerrungsgrad gering genug und nicht störend für die Bildkorrelation ist, wird die nächste Zeitmarke erwartet (35) und die Voraussage wird wiederholt. Falls die Verzerrungen den vorgegebenen Schwellenwert Λ überschreiten, wird das aktuelle Vollbild als letztes Bild betrachtet, bei dem die Bildkorrelation noch möglich ist. Das ist auch der Fall, wenn die Bildblöcke in Δt den Rand des Bildsensor (38) überschreiten.
  • Dann wird zum aktuellen Zeitpunkt ein Vollbild erfaßt (39). Die aktuellen Bildblöcke werden von gerundeten extrapolierten Positionen ausgelesen (40). Diese aktuellen Bildblöcke werden dann mit den vorgespeicherten Referenzbildblöcken aus dem Feld RBD verglichen, um die Verschiebung zwischen ihnen zu messen (41). Wenn der Abgleich gelingt (42), wird das aktuelle bearbeitete Tupel in der REVV aktualisiert (44). Das Feld EPBn erhält die Summe von gemessenen Verschiebungen und gerundeten extrapolierten Positionen von Bildblöcken minus den Wert des Feldes EPRB und plus den vorigen Wert des EPBn. Das bedeutet, daß nach der Aktualisierung das Feld EPBn die aktuellen Positionen der ersten Bildblöcke zum aktuellen Zeitpunkt enthält. Das Feld EPRB erhält die gerundeten Werte von EPBn. Die Werte von EPBn werden gerundet und die Bilddaten aus dem Feld RBD werden durch Bilddaten aus den neuen Positionen ersetzt. Das Feld EZPn erhält den aktuellen Zeitwert. Der Wert im Feld AVSn wird um eins erhöht. Das Feld ZDATA erhält die zuletzt benutzte Schätzung von Position und Lage des Satelliten.
  • Wenn die aktuellen Bildblöcke den Rand des Sensors erreichen oder wenn der Abgleich von Bildblöcken erfolglos war, wird die aktuelle Stufe des aktuellen EVV beendet und entsprechend markiert (43). Im zweiten Fall werden die Felder nicht aktualisiert. Wenn die erste Stufe im EVV beendet ist, beginnt die zweite Stufe vom selben Vollbild und deswegen vom selben Zeitpunkt.
  • Danach werden alle unbeendeten Tupel in der REVV geprüft (45). Für jeden EVV wird die Bildblockbewegung zum aktuellen Zeitpunkt aus dem Feld EZPn des aktuellen Tupels fortbewegt. Wenn die Bildblöcke den Rand des Bildsensors erreichen, werden die Stufen von geprüften EVV ohne Aktualisierung beendet. Wenn die Bildverzerrungen den vorgegebenen Schwellenwert Λ überschreiten, werden die entsprechenden EVV denselben Verfahren mit Messung der Bildverschiebung und Aktualisierung des Tupels unterzogen. Damit werden dieselben Vollbilder für verschiedene bereite EVV genutzt und die Bildrate des Bilderfassungsgeräts stark reduziert.
  • Ein neues Tupel wird erstellt (47), wenn das Zeitintervall zwischen aktueller und Startzeit des letzten EVV (Feld SZP0) das vorgegebene Aktualisierungsintervall des Umlaufbahnfilters überschreitet. Dann wird der älteste unbeendete EVV als aktueller zu bearbeitender EVV ausgewählt (47) und eine neue Schleife beginnt. Falls keine unbeendeten EVV existieren, wartet der Algorithmus in der Schleife, bis ein neues Tupel erstellt worden ist.
  • Dieser Algorithmus erfordert die Implementierung der Messung der Bildblockverschiebung in Echtzeit. Während des Flugs können Beobachtungspausen auftreten. Das kann passieren, wenn die Textur der Oberfläche nicht erkennbar wird oder die Beleuchtung nicht ausreichend ist, um die Bildkorrelation zu ermöglichen (Nachtseite des Planeten). Die Pausen können jedoch zur Bearbeitung von Daten benutzt werden, die mit höherer Meßrate aufgenommen sind. Das ermöglicht eine erhöhte Aktualisierungsrate des Umlaufbahnschätzers und damit die Eliminierung der Leistungsverminderung durch die Beobachtungspausen. Der Algorithmus muß dafür wie folgt modifiziert werden. Alle notwendigen Daten werden aufbereitet und im Tupel der REVV abgespeichert. Die notwendigen Daten sind alle Zwischenbilddaten und deren Attribute. Ein parallel laufender Algorithmus übernimmt die Bearbeitung der Daten. Der Algorithmus überwacht die REVV vom ersten Tupel und startet die Bearbeitung, wenn die Bildbearbeitungseinheit frei ist. Trotz des erforderlichen großen Speicherplatzes erlaubt der Algorithmus eine flexible Steuerung von Navigationsmessungen. Die Messung der Bildverschiebung wird durch die 2D-Korrelation zweier Bildblöcke ausgeführt, wobei die Position der Korrelationsmaxima mit Subpixelgenauigkeit ermittelt wird.
  • Der Verzerrungsgrad der Bildblöcke wird mit folgender Regel bestimmt: Die maximalen Größen in V- und W-Richtungen werden für die extrapolierten Bildblöcke ermittelt. Die Differenz zwischen dieser extrapolierten und der ursprünglichen Größe von Bildblöcken präsentiert den Verzerrungsgrad.
  • Die Bildbewegungsanalyse ermittelt die Information über die 3D-Bewegung des Satelliten aus gemessenen Positionsvektoren von Bildblöcken. Hier sind es Navigationswinkel und Rohlage des Satelliten. Navigationswinkel sind von der Position des Satelliten abhängig. Eine Serie von Navigationswinkeln bestimmt eindeutig die Bewegung des Satelliten und dementsprechend die Umlaufbahn.
  • 8 zeigt die Definition dreier vorgeschlagener Navigationswinkel. Der Satellit bewegt sich in der Umlaufbahn und nimmt drei aufeinanderfolgende und überlappende Bilder zu Zeitpunkten t0, t1 und t2 auf; wobei gilt: t0 < t1 < t2. Die Vektoren P t₀ / t₀, P t₁ / t₁ und P t₂ / t₂ beschreiben die Positionen des Satelliten zu diesen Zeitpunkten. Der untere Index enthält den Zeitpunkt der Vollbilderfassung. Nach der Erfassung des Vollbildes bleibt der Positionsvektor mit der Planetenoberfläche verknüpft. Während der Rotation des Planeten drehen sich diese Vektoren mit der Planetenoberfläche um die Z-Achse. Zu einem bestimmten Zeitpunkt nehmen diese Vektoren die neuen Positionen P t₂ / t₀, P t₂ / t₁ und P t₂ / t₂ ein. Der obere Index enthält diesen Zeitpunkt. Die Vektoren P t₂ / t₀ und P t₂ / t₁ drehen sich um die Winkel, die proportional zu den Zeitintervallen t2 – t0 und t2 – t1 sind. Die Vektoren P t₀ / t₀, P t₁ / t₁ und P t₂ / t₂ liegen in der Umlaufbahnebene. Aber die Vektoren P t₂ / t₀, P t₂ / t₁ und Pt₂t₂ liegen nicht mehr in dieser Ebene. Damit werden die Winkel zwischen den Vektoren auch geändert. Durch detaillierte Analyse findet man den Satz von Navigationswinkeln, die die Position des Satelliten zu drei Zeitpunkten beschreiben und sich durch die Bildbewegungsanalyse ermitteln lassen.
  • Der erste Navigationswinkel λ ist ein Winkel zwischen den Vektoren P t₂ / t₀ und P t₂ / t₁. Der Wert λ ist immer positiv.
  • Der zweite Navigationswinkel χ ist ein Winkel zwischen zwei Ebenen, die sich durch die Vektoren P t₂ / t₀, P t₂ / t₁ und P t₂ / t₁, P t₂ / t₂ bilden.
  • Der dritte Navigationswinkel β ist ein Winkel zwischen den Vektoren B1 und B2, wobei B1 = P t₂ / t₁ – P t₂ / t₀ und B2 = P t₂ / t₂ – P t₂ / t₁ ist. Der Wert β ist immer positiv.
  • Die drei Navigationswinkel werden auf den Zeitpunkt t2 bezogen. Zumindest drei überlappende Bilder sind zur Ermittlung der Navigationswinkel erforderlich. Der Algorithmus zur Bildbewegungsanalyse besteht aus zwei Teilen. Im ersten Teil lassen sich die Winkel λ und χ ermitteln und dann wird β bestimmt.
  • 9 zeigt die geometrischen Verhältnisse. Der Bestimmung der Navigationswinkel liegt ein Bildbewegungsmodell zugrunde. Dieses Modell gibt die Positionen von bewegten Bildblöcken auf dem zweiten Bild q 1 / k als eine Funktion von einem Zentral- und sechs Rotationswinkeln (Rohlagen) an: q1k = f|λ, a0, a1; q0k , h0, h1, R|
  • Dazu braucht man externe Parameter wie die Höhe des Satelliten h0, h1; den Radius des Planeten R und festgelegte Anfangpositionen von Bildblöcken q 0 / k. Die Rotationswinkel sind die Orientierung des Satelliten im lokalen Koordinatensystem.
  • Ein Optimierungsproblem wird gelöst, dabei werden die gemessenen Positionen mit Modellpositionen verglichen.
    Figure 00200001
  • Daraus schätzt man den optimalen Wert: x ^01 = |λ ^, â0, â1|01.
  • Dieses Verfahren wird dann für die Bilder 1 und 2 wiederholt und man erhält x ^12 = |λ ^, â0, â1|12. Aus Schätzwerten berechnet man zwei Navigations- und drei Rotationswinkel zum Zeitpunkt t2.
  • Den Navigationswinkel λ nimmt man als λ ^01. Den Winkel χ berechnet man mit zwei Vektoren â 1 / 01 und â 0 / 12 aus der Formel M|χ| = M|â101 |M|â012 |–1,wobei M eine Rotationsmatrix ist. Der Grund ist, daß â 1 / 01 und â 0 / 12 einem Zustand bzw. einer Position des Satelliten entspechen, aber die lokalen Koordinatensysteme unterschiedlich sind, weil sie auch mit Planetenrotation verbunden sind.
  • Mit anderen Verfahren wird der dritte Navigationswinkel β ermittelt.
  • Die Bewegungsgeraden von Bildpunkten schneiden sich in einem Punkt auf der Bildebene, wenn sich das Bilderfassungsgerät zwischen zwei Zeitpunkten nur translatorisch bewegt. Das gilt bei beliebiger Oberflächenform.
  • Wenn die Bewegungsvektoren, wie in 10 dargestellt, auf diesen Punkt zeigen, nennt man den Punkt Fokus der Kontraktion (48). Wenn die Bewegungsvektoren, wie in 11 dargestellt, aus diesem Punkt herauszeigen, nennt man den Punkt Fokus der Ausweitung (49). Wenn die Position des Fokus' |ν0, w0| bekannt ist, kann der Vektor der Eigenbewegung des Bilderfassungsgeräts im Referenzkoordinatensystem des Bilderfassungsgeräts zwischen den Zeitpunkten t0 und t1 ermittelt werden.
  • Im Falle der Kontraktion (48) ist der Vektor b b = |ν0, w0, f|T,
  • Im Falle der Ausweitung (49) ist der Vektor b b = |–ν0, –w0, –f|T.
  • Dieser Vektor gibt nur die Richtung der Bewegung des Bilderfassungsgeräts im Referenzkoordinatensystem des Bilderfassungsgeräts Co an. Er sei als b 0 / 01 bezeichnet. Der Vektor b 1 / 01 im Referenzkoordinatensystem des Bilderfassungsgeräts C1 läßt sich durch Rotationstransformation aus b 0 / 01 ermitteln. Für die Zeitpunkte t1 und t2 wird ein Paar von Vektoren b 0 / 12 und b 1 / 12 berechnet. Die Vektoren b 1 / 01 und b 1 / 12 sind für eine bestimmte Position des Bilderfassungsgeräts bestimmt und bilden den Winkel β.
  • Wenn das Bilderfassungsgerät seine Lage ständig ändert, haben die Bildbewegungsvektoren keinen gemeinsamen Punkt mehr. Hier wird die Rotation von Positionsvektoren von Bildblöcken zum zweiten Zeitpunkt verwendet, bis die Bildbewegungsvektoren auf einen Punkt zeigen.
  • Die REVV wird ständig überwacht. Die Tupel mit beendeten EVV werden sofort bearbeitet. Die ermittelten Werte von Navigationswinkeln und Rohlage werden im MW-Feld abgespeichert.
  • Das Prinzip der Umlaufbahnschätzung ist in 12 dargestellt. Die Position des Satelliten in der Umlaufbahn wird zu einem Zeitpunkt t2 durch den Zustandsvektor x|t2| beschrieben. Die Komponenten des Zustandsvektors sind Parameter eines Umlaufbahnmodells. Es existieren herkömmliche Umlaufbahnmodelle, wie ideale Keplersche Umlaufbahnen mit sechs Parameter, die auf den Keplerschen Parametern basierenden Modelle mit Störungen (z. B. NORAD für die Erde) oder Position/Geschwindigkeits-Modelle. Ein Umlaufbahnfilter schätzt den Zustandsvektor des Satelliten zu einem Zeitpunkt aufgrund eines Modells der wahren Satellitenbewegung (52) in der Umlaufbahn und aktueller Meßwerte dieser Bewegung. Die Meßwerte müssen von dem Zustandsvektor abhängig sein. Das Meßmodell (53) beschreibt diese Abhängigkeit.
  • Es gibt mehrere Ansätze zur Schätzung von Umlaufbahnparametern z. B. die auf der Methode der kleinsten Quadrate basierenden Schätzer Batch-Schätzalgorithmus und Kalman-Filter.
  • Der Schätzvorgang wird verallgemeinert in 12 gezeigt. Mit augenblicklichen Werten von Navigationswinkeln wird der Zustand des Systems geschätzt. Das erfolgt durch die Korrektur des extrapolierten Zustandes mit einem Korrekturwert, der aus den Meßwerten erzeugt wird. Das Modell der Satellitenbewegung (52) ermöglicht die Voraussage des Zustandes von einem Zeitpunkt zu einem anderem. Das Meßmodell (53) ermittelt die extrapolierten Werte für die Navigationswinkel. Bei der Korrektur des Zustandes (54) werden die aktuellen Meßwerte (50) (Navigationswinkel) mit den extrapolierten Werten verglichen. Aufgrund dieser Differenz und der aus dem Modell von Meßfehlern (51) erzeugten statistischen Parameter von Meßfehlern ermittelt man die Korrekturwerte zu dem extrapolierten Zustandsvektor, um die aktuellen Schätzwerte von Umlaufbahnparametern (55) zu bekommen.
  • Die REVV wird ständig auf die Tupel mit fertigen Navigationswinkeln überwacht. Die Tupel werden je nach Bereitschaft bearbeitet. Die geschätzten Werte werden im ULD-Feld abgespeichert.
  • In 13 ist die Korrektur der Rohlage prinzipiell dargestellt. Die Rohlage weicht von der Lage im Roll-Pitch-Yaw-Koordinatensystem ab.
  • Der Grund dafür ist zuerst die Abplattung und die Verformung des Planeten. An zweiter Stelle steht die Planetenrotation, da hiervon die Abweichung von der Position des Satelliten in der Umlaufbahn abhängt. Mit den Daten über die Position des Satelliten und die Verformung des Planeten kann die Rohlage korrigiert werden.
  • Die REVV wird ständig auf die Tupel mit fertigen Rohlagendaten überwacht. Die Tupel werden je nach Bereitschaft bearbeitet. Die ermittelten Werte der RPY-Lage werden im ULD-Feld abgespeichert. Die Positiondaten können sowohl vom Umlaufbahnfilter als auch extern geliefert werden. Andere zumindest erforderliche Daten sind Radius, Abplattungskoeffizient und Rotationsperiode des Planeten. Die Genauigkeit der Korrektur ist umso höher, je detaillierter die Form des Planeten bekannt ist.
  • Es kann eine kompakte Vorrichtung verwendet werden, die autonom, d. h. ohne Verwendung von Fremdressourcen arbeitet, aus Standardkomponenten aufgebaut und daher preisgünstig herzustellen ist und die in der Lage ist, über Standardschnittstellen mit anderen Geräten, wie z. B. mit dem Hauptrechner des Satelliten zu kommunizieren. Die Vorrichtung besteht aus (14)
    • – einem Bilderfassungsgerät (61), das das Licht von der beobachteten Oberfläche auf die Mehrheit von lichtempfindlichen Elementen projiziert und ein Vollbild erzeugt,
    • – einem Bildbuffer (62), der das Vollbild erhält,
    • – einer Recheneinheit 1 (63), die alle notwendigen Berechnungen zur Bildbewegungsverfolgung übernimmt, die Tupel in der REVV aktualisiert und einen 2D-Korrelator steuert,
    • – einem 2D-Korrelator (64), der die Berechnung der 2D-Korrelationsfunktion übernimmt und die Verschiebung von Bildblöcken ermittelt,
    • – einem Rereferenztimer (65), der die Referenzzeitmarke erzeugt,
    • – einer Recheneinheit 2 (66), die die Bildbewegungsanalyse übernimmt,
    • – einer Recheneinheit 3 (67), die die Umlaufbahnparameter und RPY-Lage ermittelt,
    • – einem REVV-Speicher (68), der die Daten von laufenden einzelnen Verfolgungsvorgängen enthält,
    • – einer externen Schnittstelle (69), die die Vorrichtung mit der Hauptbordrecheneinheit verbindet.
  • Die Arbeitsweise der Vorrichtung zur autonomen Satellitennavigation kann wie folgt zusammengefaßt werden:
    Die Recheneinheit 1 (63) wird vom Referenztimer synchronisiert und führt die Extrapolation der Bildblöcke aufgrund der Daten über die Position und Lage des Satelliten (70) durch. Die Recheneinheit 3 (67) liefert diese Daten als entsprechend überarbeitete Ergebnisse der Umlaufbahnschätzung oder als externe Daten von der externen Schnittstelle (69). Die Recheneinheit 1 (63) aktualisiert die REVV Inhalt und erstellt neue Tupel, wenn notwendig. Die Vollbilddaten werden aus dem Vollbildbuffer (62) ausgelesen.
  • Die in der REVV gespeicherten Referenz- und aus dem Vollbildbuffer ausgelesenen aktuellen Bildblöcke werden paarweise in den 2D-Korrelator weitergeleitet. Dieser gibt für jedes Paar den Verschiebungswert zurück. Diesen Wert benutzt die Recheneinheit 1 für die Aktualisierung der Daten in der REVV.
  • Das Bilderfassungsgerät (61) wird von der Recheneinheit 1 so gesteuert, daß die Bildaufnahme zu bestimmten Zeitpunkten erfolgt. Die Belichtungszeit wird von der Recheneinheit 1 bestimmt, um die Schärfe der Bilder zu gewährleisten. Das Vollbild wird im Vollbildbuffer (61) abgespeichert. Die Aufnahmezeitpunkte werden in die entsprechenden Felder in den Tupel der REVV eingetragen.
  • Der REVV-Speicher (68) enthält die REVV. Die Recheneinheit 1 löscht die nicht nutzbaren und alten Tupel in der REVV. Die Recheneinheit 2 (66) greift auf den REVV-Speicher zu und überwacht diesen ständig auf die beendeten Tupel mit fertigen Messungen der Bildbewegung. Falls es solche gibt, ermittelt die Recheneinheit 2 die Navigationswinkel und Rohlage. Dazu werden die Daten über die Position und Lage des Satelliten (70) benutzt. Die ermittelten Werte werden in der REVV wieder abgespeichert.
  • Die Recheneinheit 3 (67) schätzt die Umlaufbahnparameter und korrigiert die Rohlage. Das erfolgt bei den Tupeln mit fertigen Werten von Navigationswinkeln. Die Ergebnisse der Schätzung können bei Bedarf an die Hauptbordrecheneinheit durch die externe Schnittstelle (69) übertragen werden.
  • In einer vorteilhaften Ausgestaltung kommen beim Aufbau der Vorrichtung folgende Komponenten zum Einsatz:
  • Bilderfassungsgerät
  • Standard-Digitalkamera mit einem Objektiv, Sonnenschutz, Matrixbildsensoren in der Bildebene. Belichtungssteuerung für Bildsensoren ist notwendig. Interline transfer CCD Matrixbildsensoren sind bevorzugt (SONY ICX282AQF).
  • Objektiv Typ Biogon® T* 4.5/38 CF (Zeiss).
  • Vollbildbuffer
  • Eine Anzahl von Speicher-Chips (z. B. Dynamisches oder Statisches RAM).
  • Recheneinheit 1, 2, 3
  • Standardcomputer mit CPU, Programm- und Datenspeicher, externen Schnittstellen (z. B. PCI oder Speicherabgebildeter Typ).
  • Beispiel, weltraumgeeigneter RHPPC Single Board Computer, Honeywell.
  • 2D-Korrelator
  • Eine spezielle Einheit basiert auf FFT DSP, z. B. DSP-24, DSP Architectures Inc. oder auf Optischer Korrelator Technologie, z. B. SOCAP, TU-Dresden, Deutschland; MROCTM, Litton Data Systems, USA.
  • Referenztimer
  • Standard Quarzstabilisierter Pulsgenerator
  • REVV-Speicher
  • Eine Anzahl von Speicher-Chips (z. B. Dynamisches oder Statisches RAM).
  • Externe Schnittstelle
  • PCI-Bus, serielle Schnittstelle (RS232) oder änliches
  • 1
    Satellit
    2
    Umlaufbahn
    3
    Planet
    4, 5, 6
    Sichtbereiche des Satelliten (Lichtkegel)
    7, 8, 9
    erfaßte Bereiche der Planetenoberfläche
    10, 11
    Überlappungen der erfaßten Bereiche
    12
    Bilder von der Planetenoberfläche
    12a
    Bilddaten
    13
    Stufe des Bildverarbeitungsprozesses
    13a
    Positionsvektoren
    14
    Stufe der Bildbewegungsanalyse
    14a
    Rohlage
    14b
    Navigationswinkel
    15
    Keplersche Umlaufbahnparameter
    16
    Stufe der Umlaufbahnschätzung
    17
    Rohlage
    18
    Lage des Satelliten im Roll-Pitch-Yaw Koordinatensystem
    19
    Positionsdaten
    20
    Bilderfassungsgerät
    21
    Oberfläche
    22
    Bildsensor
    23, 24
    Oberflächenobjekte
    25, 26
    Positionen von Bildern der Oberflächenobjekte zum Zeitpunkt t0
    27, 28
    Positionen von Bildern der Oberflächenobjekte zum Zeitpunkt t1
    29
    Referenzkoordinatensystem des Bilderfassungsgeräts
    30
    Start des Algorithmus zur Bildbewegungsverfolgung
    31
    Warten auf Zeitmarke
    32
    Erfassung eines Vollbildes
    33
    Erstellen eines neuen Tupels in der REVV
    34
    Auslesen eines Satzes von Bildblöcken
    35
    Warten auf Zeitmarke
    36
    Fortbewegen Blockbewegung in Δt
    37
    Vergleich mit dem Schwellenwert Λ
    38
    Prüfen, ob alle Bildblöcke auf dem Sensor sind
    39
    Erfassen eines Vollbilds zum aktuellen Zeitpunkt
    40
    Ausschneiden Bildblöcke aus vorhergesagten Positionen als aktuelle Blöcke
    41
    Messen der Verschiebung zwischen Referenz- und aktuellen Blöcken
    42
    Prüfen, ob die Messung erfolgreich war
    43
    Beenden der aktuellen Stufe des aktuellen Tupel
    44
    Aktualisierung und ggf. Beendigung des aktuellen Tupel in REVV
    45
    Prüfen und Aktualisieren aller unbeendeten Tupel
    46
    Erstellen ein es neuen Tupels in REVV, wenn nötig
    47
    Markieren des ältesten unbeendeten Tupels als aktuell
    48
    Fokus der Kontraktion
    49
    Fokus der Ausweitung
    50
    Navigationswinkel
    51
    Modell von Meßfehlern
    52
    Umlaufbahnmodell
    53
    Meßmodell
    54
    Korrektur des Zustandes
    55
    Schätzwerte von Umlaufbahnparametern
    56
    Onboard-Bilderfassungsgerät
    56a
    Bilddaten
    57
    Hochgeschwindigkeits-Verarbeitungseinheit
    57a
    Positionsvektoren
    58
    Datenverarbeitungsanlage
    58a
    Keplersche Umlaufbahnparameter und RPY-Lage
    59
    A-priori-Daten
    59a
    Planetenparameter, Eigenschaften des Bilderfassungsgerätes
    60
    Systemschnittstellen
    61
    Bilderfassungsgerät
    62
    Bildbuffer
    63
    Recheneinheit 1
    64
    2D-Korrelator
    65
    Referenztimer
    66
    Recheneinheit 2
    67
    Recheneinheit 3
    68
    REVV-Speicher
    69
    Externe Schnittstelle
    70
    Daten über die Position und Lage des Satelliten

Claims (5)

  1. Vorrichtung für die Bestimmung der Position und Lage eines Satelliten unter Verwendung von Bildbewegungsinformationen mit einem Bilderfassungsgerät (56) zur Aufnahme von Bildern der Planetenoberflächen in definierten Zeitabständen, die zumindest in Teilbereichen überlappen, wodurch bestimmte Ausschnitte der Bilder (im folgenden Bildblöcke genannt) gleichen Inhalt haben, mit einer damit verbundenen Hochgeschwindigkeits-Verarbeitungseinheit (57) zur Ansteuerung des Bilderfassungsgeräts (56) und zur Durchführung einer Bildbewegungsverfolgung, bestehend aus – einem Speicher zur Zwischenspeicherung von Bilddaten, einer Extraktion und Speicherung von Bildblöcken, wobei die Bewegung von Bildblöcken zwischen aufeinanderfolgenden und sich überlappenden Bildern in der Bildebene des Bilderfassungsgerätes (56) verfolgt wird, – einem Vollbildbuffer (62), der das Vollbild zwischenspeichert, – einer von einem Referenztimer (65) synchronisierten und die Extrapolation der Bildblöcke aufgrund der Daten über die Position und Lage des Satelliten (1) durchführenden ersten Recheneinheit (63) und – einem 2D-Korrelator (64), mit einer damit zusammengeschalteten digitalen Datenverarbeitungseinrichtung (58) zur Durchführung einer Bildbewegungsanalyse bestehend aus – einer zweiten Recheneinheit (66), die die Bildbewegungsanalyse übernimmt, – einer dritten Recheneinheit (67), die die Umlaufbahnparameter und RPY-Lage ermittelt, und – einem REVV (Reihe Einzelner Verfolgungs Vorgänge)-Speicher (68), der die Daten von laufenden einzelnen Verfolgungsvorgängen speichert, sowie mit einer damit verbundenen Schnittstelle (69) für die Interaktion mit der Hauptbordrecheneinheit des Satelliten (1), wobei das Bilderfassungsgerät (56), die Hochgeschwindigkeits-Verarbeitungseinheit (57), die digitale Datenverarbeitungseinrichtung (58) und die Schnittstelle (69) so miteinander verbunden sind, dass die dritte Recheneinheit (67) die Daten über die Position und Lage des Satelliten (1) als entsprechend überarbeitete Ergebnisse der Umlaufbahnschätzung liefert oder diese als externe Daten von der externen Schnittstelle (69) bezogen werden, dass bei Bestimmung der Position und der Lage des Satelliten (1) die erste Recheneinheit (63) den Inhalt des Speichers der untersuchten REVV (68) aktualisiert und neue Tupel erstellt, dass die Vollbilddaten aus dem Vollbildbuffer (62) ausgelesen werden, dass die in dem REVV-Speicher (68) gespeicherten Referenz- und aus dem Vollbildbuffer (62) ausgelesenen aktuellen Bildblöcke paarweise in den 2D-Korrelator (64) weitergeleitet werden, dass der 2D-Korrelator (64) für jedes Paar den Verschiebungswert zurückgibt, den die erste Recheneinheit (63) für die Aktualisierung der Daten in der REVV benutzt, dass das Bilderfassungsgerät (61) von der ersten Recheneinheit (63) so gesteuert wird, dass die Bildaufnahme zu bestimmten Zeitpunkten erfolgt, dass die Belichtungszeit von der ersten Recheneinheit (63) bestimmt wird, um die Schärfe der Bilder zu gewährleisten, dass die Aufnahmezeitpunkte in die entsprechenden Felder in den Tupeln der REVV eingetragen werden, dass der REVV-Speicher (68) die REVV enthält, dass die erste Recheneinheit (63) die nicht nutzbaren und alten Tupel in der REVV löscht, dass die zweite Recheneinheit (66) auf den REVV-Speicher (68) zugreift und diesen ständig auf die beendeten Tupel mit fertigen Messungen der Bildbewegung überwacht, dass die zweite Recheneinheit (66) die Navigationswinkel und Rohlage aus den Positionsvektoren sich überlappender Bildblöcke aufeinanderfolgender Zeitpunkte und den Winkeln zwischen sowohl diesen Positionsvektoren als auch der sich durch die Rotation des Planeten geänderten Positionen und damit geänderten Positionsvektoren der Bildblöcke ergebenden Vektoren bei Tupeln mit fertigen Messungen der Bildbewegung ermittelt, dass die ermittelten Werte in der REVV wieder abgespeichert werden, dass die dritte Recheneinheit (67) die Umlaufbahnparameter schätzt und die Rohlage korrigiert, was bei den Tupeln mit fertigen Werten von Navigationswinkeln erfolgt, und dass die Ergebnisse der Schätzung bei Bedarf durch die externe Schnittstelle (69) an die Hauptbordrecheneinheit des Satelliten (1) übertragen werden.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Bilderfassungsgerät (56) eine Kamera mit mindestens einem Matrixsensor in der Bildebene ist.
  3. Vorrichtung nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das Bilderfassungsgerät (56) eine Kamera mit einer Mehrzahl von Linearsensoren in der Bildebene ist.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Bilderfassungsgerät (56) speziell gestaltete Linsen zur Kompensation von Bildverzerrungen aufgrund der Krümmung der Planetenoberfläche enthält.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Hochgeschwindigkeits-Verarbeitungseinheit (57) zur Durchführung der Korrelationsanalyse einen Optischen Korrelator enthält.
DE10292353T 2001-05-31 2002-05-31 Vorrichtung zur autonomen Navigation von Satelliten Expired - Fee Related DE10292353B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10292353T DE10292353B4 (de) 2001-05-31 2002-05-31 Vorrichtung zur autonomen Navigation von Satelliten

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE10127399.1 2001-05-31
DE2001127399 DE10127399A1 (de) 2001-05-31 2001-05-31 Verfahren und Vorrichtung zur autonomen Navigation von Satelliten
PCT/DE2002/002037 WO2002097371A1 (de) 2001-05-31 2002-05-31 Verfahren und vorrichtung zur autonomen navigation von satelliten
DE10292353T DE10292353B4 (de) 2001-05-31 2002-05-31 Vorrichtung zur autonomen Navigation von Satelliten

Publications (2)

Publication Number Publication Date
DE10292353D2 DE10292353D2 (de) 2004-04-29
DE10292353B4 true DE10292353B4 (de) 2009-06-04

Family

ID=7687338

Family Applications (2)

Application Number Title Priority Date Filing Date
DE2001127399 Withdrawn DE10127399A1 (de) 2001-05-31 2001-05-31 Verfahren und Vorrichtung zur autonomen Navigation von Satelliten
DE10292353T Expired - Fee Related DE10292353B4 (de) 2001-05-31 2002-05-31 Vorrichtung zur autonomen Navigation von Satelliten

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE2001127399 Withdrawn DE10127399A1 (de) 2001-05-31 2001-05-31 Verfahren und Vorrichtung zur autonomen Navigation von Satelliten

Country Status (2)

Country Link
DE (2) DE10127399A1 (de)
WO (1) WO2002097371A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006050850B4 (de) * 2006-10-27 2009-01-02 Locanis Ag Verfahren und Vorrichtung zur Wegmessung
CN103438890B (zh) * 2013-09-05 2015-10-28 北京理工大学 基于tds与图像测量的行星动力下降段导航方法
CN103954287B (zh) * 2014-03-31 2016-08-17 北京控制工程研究所 深空探测自主导航的一种路标规划方法
CN104729510B (zh) * 2014-12-25 2017-07-28 北京理工大学 一种空间目标相对伴飞轨道确定方法
CN106643741B (zh) * 2016-12-12 2020-05-19 东南大学 一种卫星相对小行星视觉自主导航方法
CN106643742B (zh) * 2016-12-12 2020-05-19 东南大学 一种卫星自主连续观测小行星的方法
CN110268354A (zh) * 2019-05-09 2019-09-20 珊口(深圳)智能科技有限公司 更新地图的方法及移动机器人
CN111121787B (zh) * 2019-12-06 2022-01-11 上海航天控制技术研究所 一种基于遥感图像的自主初轨确定方法
US20220017239A1 (en) * 2020-07-17 2022-01-20 The Aerospace Corporation Methods and systems for orbit estimation of a satellite

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4495589A (en) * 1982-09-20 1985-01-22 Crane Co. Aircraft ground velocity determination system
US4671650A (en) * 1982-09-20 1987-06-09 Crane Co. (Hydro-Aire Division) Apparatus and method for determining aircraft position and velocity
US5104217A (en) * 1986-03-17 1992-04-14 Geospectra Corporation System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3366960A (en) * 1966-11-01 1968-01-30 Gen Precision Systems Inc Microwave radiometric navigation system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4495589A (en) * 1982-09-20 1985-01-22 Crane Co. Aircraft ground velocity determination system
US4671650A (en) * 1982-09-20 1987-06-09 Crane Co. (Hydro-Aire Division) Apparatus and method for determining aircraft position and velocity
US5104217A (en) * 1986-03-17 1992-04-14 Geospectra Corporation System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A.E.Johnson and L.H.Matthies, "Precise imagebased motion … estimation for autonomous small body exploration", in: Proc. 5th … Int'l Symp. On Artifical Intelligence, Robotics and Automation in … Space, Noordwijk, The Netherlands, June 1-3 1999, pp. 627-634 *
K.Janschek, T.Boge, V. Tchernykh, S.Dyblenko: "Image Based … Attitude Determination using an Optical Cerrelator", Accepted … Paper, 4th ESA International Conf. on Spacecraft Guidance, … Navigation and Control Systems, 1999, Noordwijk, The Netherlands *
K.Janschek, T.Boge, V. Tchernykh, S.Dyblenko: "Image Based Attitude Determination using an Optical Cerrelator", Accepted Paper, 4th ESA International Conf. on Spacecraft Guidance, Navigation and Control Systems, 1999, Noordwijk, The Netherlands A.E.Johnson and L.H.Matthies, "Precise imagebased motion estimation for autonomous small body exploration", in: Proc. 5th Int'l Symp. On Artifical Intelligence, Robotics and Automation in Space, Noordwijk, The Netherlands, June 1-3 1999, pp. 627-634

Also Published As

Publication number Publication date
WO2002097371A1 (de) 2002-12-05
DE10127399A1 (de) 2002-12-12
DE10292353D2 (de) 2004-04-29

Similar Documents

Publication Publication Date Title
DE19737592C2 (de) Lagebestimmungssystem für künstliche Satelliten
EP2241896B1 (de) Stabilisierungssystem für Flugkörper
DE69929525T2 (de) Verfahren und vorrichtung zur erzeugung von navigationsdaten
EP2916106B1 (de) Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
DE60306301T2 (de) Verfahren und Gerät zur Erfassung, Geolokalisierung und Vermessung schräg aufgenommener Bilder
EP0856784B1 (de) Verfahren und Vorrichtung zur bordautonomen Bestimmung der Position eines Satelliten
DE102020122748B3 (de) Verfahren, Vorrichtung und Computerprogrammprodukt zur Lagebestimmung eines Raumflugkörpers im Weltraum
DE69925057T2 (de) Vorrichung zur Messung der Höhe eines Flugkörpers
CH692679A5 (de) Photogrammetrische Kamera und photogrammetrisches Verfahren.
WO2006075017A1 (de) Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles
DE102017205647A1 (de) Verfahren zum bestimmen eines pfades entlang eines objekts, system und verfahren zum automatischen inspizieren eines objekts
DE10292353B4 (de) Vorrichtung zur autonomen Navigation von Satelliten
DE102019207087A1 (de) Lokalisierung einer mobilen Einheit
EP1094002A2 (de) Regelungsanordnung und Regelungsverfahren für Satelliten
DE69918677T2 (de) Verfahren zur horizontalen leitweglenkung eines flugzeuges zwischen zwei verpflichteten punkten
DE69829091T2 (de) Messungsgerät
EP1119741B1 (de) Kombiniertes erd-sternsensorsystem und verfahren zur bahn- und lagebestimmung von raumflugkörpern
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE10258545A1 (de) Stabilisierungssystem für Flugkörper
EP3584536A1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
AT523556A1 (de) Verfahren zur Bildkorrektur
EP0474105B1 (de) Inertiales Navigationssystem mit Kompensationsfilter zu seiner Ausrichtung im Fluge
Pan et al. A penalized spline-based attitude model for high-resolution satellite imagery
DE102011054379B4 (de) Verfahren und Vorrichtung zur Ermittlung einer Positionsinformation
EP4020373B1 (de) Verfahren zum ermitteln eines 3d-modells einer umgebung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20121201