DE10127399A1 - Method and device for the autonomous navigation of satellites - Google Patents

Method and device for the autonomous navigation of satellites

Info

Publication number
DE10127399A1
DE10127399A1 DE2001127399 DE10127399A DE10127399A1 DE 10127399 A1 DE10127399 A1 DE 10127399A1 DE 2001127399 DE2001127399 DE 2001127399 DE 10127399 A DE10127399 A DE 10127399A DE 10127399 A1 DE10127399 A1 DE 10127399A1
Authority
DE
Germany
Prior art keywords
image
satellite
data
navigation
orbit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2001127399
Other languages
German (de)
Inventor
Klaus Janschek
Valerij Tchernykh
Sergej Dyblenko
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technische Universitaet Dresden
Original Assignee
Technische Universitaet Dresden
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Universitaet Dresden filed Critical Technische Universitaet Dresden
Priority to DE2001127399 priority Critical patent/DE10127399A1/en
Priority to DE10292353T priority patent/DE10292353B4/en
Priority to PCT/DE2002/002037 priority patent/WO2002097371A1/en
Publication of DE10127399A1 publication Critical patent/DE10127399A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/24Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation

Abstract

The invention relates to a method and a device for surface-based navigation using optoelectronic image displacement monitoring for the autonomous navigation of satellites. The inventive method is a landmark navigation method which uses a new approach to optoelectronic navigation, involving image displacement monitoring instead of landmark monitoring. The invention also relates to a device for carrying out the method. The navigation principle is based on the fact that the image displacement in the focal plane of an image detection device situated on board and oriented towards the planets detects the relative displacement of the satellite and the surface of the planet observed. The momentary image displacement in the focal plane is defined by the position and situation of the satellite in relation to the displacement of the surface of the planet which depends on the form and the rotation of the planets. In this way, both the position and information relating to the orbit can be determined from a sequence of observed images, with a minimum of a priori information.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur oberflächenbasierten Navigation mit Hilfe optoelektronischer Bildbewegungsverfolgung zur autonomen Durchführung der Navigation von Satelliten. Als Satelliten im Sinne dieser Lehre sind künstliche, einen Himmelskörper auf einer Umlaufbahn umkreisende Flugkörper zu verstehen.The invention relates to a method and a device for surface-based Navigation with the help of optoelectronic image motion tracking to the autonomous Carrying out the navigation of satellites. As satellites in the sense of this doctrine are artificial missile orbiting a celestial body in an orbit understand.

Autonome Satellitennavigation im Sinne einer "Echtzeit-Bereitstellung von Satelliten­ umlaufbahndaten und der augenblicklichen Lage (räumliche Orientierung) ausschließ­ lich mit Bordmitteln" ist eine Voraussetzung für (halb-)autonome Satellitenoperationen wie Zeitplanung, Datenzuweisung und Ausrichtung der an Bord befindlichen Geräte oder Aufrechterhaltung der Satellitenumlaufbahn.Autonomous satellite navigation in the sense of a "real-time provision of satellites orbit data and the current position (spatial orientation) exclusively with on-board resources "is a prerequisite for (semi-) autonomous satellite operations such as scheduling, data allocation and orientation of the on-board devices or maintaining the satellite orbit.

Bei einigen Missionen sind autonome Satellitenoperationen aufgrund des Charakters der Mission selbst erforderlich. Dies ist für den Vorbeiflug an Planeten oder Flüge zu weit entfernten Planeten der Fall, in denen entweder das Raumschiff ohne Kontakt zur Bo­ denstation oder die Signalverzögerung zu groß für eine Steuerung von dort aus ist.For some missions, autonomous satellite operations are due to the nature of the satellite Mission itself required. This is too far for the flyby on planets or flights distant planet of the case where either the spaceship without contact with the Bo station or the signal delay is too large for a controller from there.

Für Satellitenkonstellationen mit beliebiger Höhe stellt der gesamte Prozeß der Umlauf­ bahnbestimmung und -steuerung einen der wichtigsten Betriebskostenfaktoren dar. Gleichzeitig stellt dies auch einen bedeutenden Risikofaktor dar, in dem jeglicher Be­ triebsfehler und jegliches Versagen des Boden-Systems die Konstellation beschädigen oder zerstören könnte. Autonome Operationen können deshalb die Betriebskosten be­ trächtlich reduzieren.For satellite constellations of any height, the entire process will orbit Railway determination and control is one of the most important operating cost factors. At the same time, this also represents a significant risk factor in which any Be Drives and any failure of the ground system damage the constellation or could destroy. Autonomous operations can therefore be the operating costs be reduce considerably.

Genaue Augenblicksmessdaten der Umlaufbahn und Daten von Onboard-Instrumenten (Bilder, Meßwerte etc.) können gleichzeitig verfügbar sein, um die Instrumentendaten eindeutig zu referenzieren. Außerdem benötigt die Messung eine geringere Genauigkeit als bei Systemen, die mit alten Daten arbeiten, weil die Daten an Genauigkeit verlieren, wenn sie auf in der Zukunft liegende Zeitpunkte extrapoliert werden. Accurate instant orbit data and data from onboard instruments (Images, readings, etc.) can be simultaneously available to the instrument data clearly referenced. In addition, the measurement requires less accuracy as in systems that work with old data because the data is losing accuracy, when extrapolated to future dates.  

Für genaue Umlaufbahn-Manöver und präzises Ausrichten von Onboard-Instrumenten wird eine größere Genauigkeit von Navigationsergebnissen, die auf alten Daten basieren und die auf spätere Zeitpunkte extrapoliert werden müssen, verlangt, damit diese den Bedürfnissen bei Echtzeitverarbeitung entsprechen. Bei Echtzeit-Systemen ist eine hochgenaue Voraussage der Umlaufbahn von geringerer Bedeutung.For accurate orbit maneuvers and precise alignment of onboard instruments Greater accuracy of navigation results based on old data and which have to be extrapolated to later times, requires that this be the Meet real-time processing needs. For real-time systems, one is highly accurate predictions of orbit of lesser importance.

Für erdorientierte Missionen sind die geeignetsten Onboard-Navigationsquellen die so­ genannten GNSS-Dienste (GNSS - Global Navigation Satellite Systems), die durch vorhandene Systeme wie GPS oder Glonass, zukünftige Systeme wie Galileo oder das bodenbasierte DORIS bereitgestellt werden. Aber es sollte hervorgehoben werden, daß solche Konzepte keine vollständig autonomen Systeme sind, weil sie auf der Verfüg­ barkeit der Navigationssatelliten beruhen, die die benötigten Daten bereitstellen. Außer­ dem sind GNSS-Dienstleistungen im interplanetaren Raum nicht verfügbar.For Earth-oriented missions, the most suitable onboard navigation sources are the ones GNSS services (GNSS - Global Navigation Satellite Systems) existing systems such as GPS or Glonass, future systems such as Galileo or the ground-based DORIS. But it should be emphasized that such concepts are not completely autonomous systems because they rely on the availability of the navigation satellites that provide the required data. except GNSS services are not available in interplanetary space.

Daher sind die besten Datenquellen für eine völlig autonome Navigation natürliche Ob­ jekte im Sonnensystem: Sonne, Planeten, usw.. Die Beobachtung dieser Objekte und, wenn möglich, ihrer Ränder, ist eine Grundlage für Ermittlung der relativen Position von Satelliten. Solche Navigationssysteme benötigen Eingangsdaten von mehreren On­ board-Sensoren. Die Navigationsleistung wird durch Sichtbarkeit und Beobachtbarkeit der Bezugshimmelskörper, die Menge vorhandener A-priori-Bezugsdaten (Daten, die vor Beginn der Mission gesammelt wurden) wie Ephemeriden (Tabellen, in denen die Stellung eines Gestirns am Himmel oder sein Ort innerhalb seiner Bahn um einen Zen­ tralkörper für eine regelmäßige Folge von Zeitpunkten angegeben ist), Beobachtungs- und Formmodellen für Planetenränder begrenzt. Der Ausrichtungsfehler zwischen un­ terschiedlichen Instrumenten ist eine andere wichtige Fehlerquelle und macht eine ge­ naue Onboard-Kalibrierung notwendig.Therefore, the best sources of data for fully autonomous navigation are natural ob Sunsets, planets, etc. Observing these objects and, if possible, their edges, is a basis for determining the relative position from satellites. Such navigation systems require input data of several On board sensors. The navigation performance is enhanced by visibility and observability the reference celestial body, the amount of available a-priori reference data (data, the were collected before the start of the mission) such as ephemerides (tables in which the Position of a star in the sky or its place within its orbit around a zen tral body is indicated for a regular sequence of times), observational and shape models for planet edges. The alignment error between un Different instruments is another important source of error and makes a ge accurate onboard calibration necessary.

Für Satelliten auf Umlaufbahnen ist daher für gerätetechnisch einfache und robuste Sy­ stemlösungen die Verwendung des nächsten Objekts - die Oberfläche des umkreisten Planeten - die vielversprechendste Lösung. For satellites in orbits is therefore for device technically simple and robust Sy stem solutions the use of the next object - the surface of the circled Planets - the most promising solution.  

Der traditionelle Ansatz für oberflächenbasierte Navigation ist die Landmarken- Navigation. Sie verwendet eine Kamera an Bord des Satelliten zur Aufnahme von Ober­ flächenbildern, eine Onboard-Datenbank mit Positions- und Gestaltsdaten von Land­ marken, ein Onboard-Bildverarbeitungsystem zur Erkennung und Bestimmung der Landmarken-Positionen auf dem aufgenommenen Bild und einen Onboard-Computer, um die Resultate der Messung zu verarbeiten. Die Position und die Lage des Satelliten in einem Inertialsystem (Koordinatensystem in Raum und Zeit, in dem die Newton'schen Axiome der Mechanik gelten, ohne daß Trägheitskräfte, wie Zentrifugal- oder Corio­ liskräfte, auftreten. Praktisch kann als Inertialsystem ein Bezugssystem angesehen wer­ den, das in der Milchstraße verankert ist. Ferner ist jedes geradlinig und gleichförmig dagegen bewegte System ebenfalls ein Inertialsystem) können mit passenden Algorith­ men aus den Informationen über Planeten festgestellt werden: Geometrie-, Form-, Gra­ vitations- und Rotationsmodell sowie Koordinatenpositionen aller ermittelten Landmar­ ken auf dem Planeten. Normalerweise werden Landmarkeninformationen im Stadium der Missionsvorbereitung gesammelt und sind an Bord als Landmarkendatenbank vor­ handen, die Bilder der Landmarken (in Raster- oder Vektorform) zusammen mit ihren Koordinaten umfaßt.The traditional approach to surface-based navigation is the landmarks Navigation. She uses a camera aboard the satellite to record upper surface images, an onboard database of country position and design data marken, an on-board image processing system for the detection and determination of Landmark positions on the captured image and an onboard computer, to process the results of the measurement. The position and location of the satellite in an inertial system (coordinate system in space and time, in which the Newtonian Axioms of mechanics apply without inertial forces, such as centrifugal or corio liskräfte, occur. In practice, an inertial system can be considered as a reference system the one anchored in the Milky Way. Furthermore, each is straight and uniform on the other hand moving system likewise an inertial system) can with suitable Algorithm can be determined from the information about planets: Geometry, Form, Gra Vibration and rotation model as well as coordinate positions of all determined Landmar ken on the planet. Normally, landmark information is in the stage the mission preparation collected and are on board as a landmark database before The pictures of the landmarks (in raster or vector form) together with their own Coordinates included.

Der wirkungsvolle Gebrauch solcher Systeme hängt von den folgenden allgemeinen Faktoren ab:
The effective use of such systems depends on the following general factors:

  • - Inhalt der Onboard-Landmarkendatenbank- Content of the onboard landmark database
  • - Genauigkeit der Bezugsdaten, d. h. Landmarkenkoordinaten- accuracy of the reference data, d. H. Landmark coordinates
  • - Robustheit der Landmarkenerkennungsalgorithmen gegenüber veränderlichem Aussehen der LandmarkenRobustness of landmark detection algorithms over variable Appearance of landmarks

Der erste Faktor spielt eine bedeutende Rolle in der Länge der Schrittweite (Zeitinter­ vall zwischen zwei Messungen) und der Konvergenzzeit der Navigationsalgorithmen. Zum Beispiel ergeben sich beim Vorhandensein von zwei Landmarken pro Umkreisung (wie bei LEO-Missionen) und einer Schrittweite von einem halben Umlauf Konver­ genzzeiten von typischerweise 15 Umläufen. The first factor plays an important role in the length of the step (time inter vall between two measurements) and the convergence time of the navigation algorithms. For example, there are two landmarks per revolution (as in LEO missions) and a step size of a half-round Konver Genzzeiten of typically 15 rounds.  

Dies ist bei weitem nicht ausreichend für einige kurzfristige Betriebsanforderungen. Große Schrittweiten benötigen auch eine hohe Genauigkeit bei der Definition der Landmarkenpositionen. Qualitativ hochwertige Bilddaten zu sammeln und dem Koordi­ natensystem exakt zuzuordnen ist eine nichttriviale Aufgabe sogar für den Planeten Er­ de und wird noch viel schwieriger für andere Planeten. Eine Vergrößerung der Land­ markendatenbank macht einen großen Aufwand im Stadium der Datenaufbereitung notwendig und benötigt große Onboard-Speicherkapazität und effektive Verarbeitungs­ einrichtungen.This is far from sufficient for some short-term operating requirements. Large step sizes also require high accuracy in the definition of Landmark positions. To collect high quality image data and the Koordi It is a non-trivial task, even for the planet He and will be even more difficult for other planets. An enlargement of the land brand database makes a big effort in the stage of data preparation necessary and requires large onboard storage capacity and effective processing facilities.

Das robuste und genaue Messen der Landmarkenposition wird ein nichttriviales Pro­ blem bei Änderungen der Beobachtungsbedingungen (unterschiedliche Belichtungs­ winkel) und Änderungen der Oberfläche (saisonale Änderungen von Landmarken, Ebbe und Flut für Küstenverläufe usw.). Um dieses Problem zu überwinden, müssen entwe­ der Onboard-Bildkorrekturalgorithmen unter Verwendung von A-priori-Informationen oder ein erweiterter Satz von Landmarken für unterschiedliche Situationen, eingeführt werden. Die Kompliziertheit der Bildverarbeitung erhöht die Systemkosten und die Ge­ fahr inkorrekter oder falscher Resultate. Die Notwendigkeit, eine große Menge an exak­ ten A-priori-Informationen über Landmarken und eine zuverlässige, robuste Bildverar­ beitung an Bord zur Verfügung zu haben ist das Haupthindernis für eine kosteneffektive Landmarken-Navigationslösung.The robust and accurate measurement of landmark position becomes a non-trivial pro for changes in observation conditions (different exposure angle) and surface changes (seasonal changes of landmarks, low tide and tide for coastal processes, etc.). To overcome this problem, entwe on-board image correction algorithms using a-priori information or an extended set of landmarks for different situations become. The complexity of image processing increases system cost and complexity Incorrect or incorrect results. The need for a large amount of exak A priori information about landmarks and reliable, robust image processing Having on-board treatment is the main obstacle to a cost-effective Landmark navigation solution.

Aus der Patentschrift US 6023291 ist ein Verfahren und eine Vorrichtung zur Navigati­ on von Satelliten bekannt, bei dem die Bilder von Landmarken und dem Rand des Pla­ neten benutzt werden.The patent US 6023291 discloses a method and a device for navigating known from satellite, where the images of landmarks and the edge of Pla be used.

Dieses Verfahren hat jedoch die folgenden Nachteile:
However, this method has the following disadvantages:

  • 1. Zusätzliche Speicherkapazität ist für die große Onboard-Datenbank von Landmar­ ken erforderlich;1. Additional storage capacity is available for Landmar's large onboard database required;
  • 2. Zusätzlicher Rechenaufwand ist für die Onboard-Korrektur von aufgenommenen Bildern nötig;2. Additional computational effort is taken for the onboard correction of Pictures necessary;
  • 3. Die genauen Koordinaten von Landmarken sind erforderlich, die Gewinnung und Vorbereitung sind aber sehr aufwendig.3. The exact coordinates of landmarks are required, the extraction and Preparation is very expensive.

Aus der Patentschrift US 4730798 ist ein Verfahren und eine Vorrichtung zur Navigati­ on von Satelliten bekannt, bei dem die Messung von Winkeldurchmesser des Planeten für die Bestimmung der Höhe der Satelliten genutzt wird.The patent US 4730798 discloses a method and a device for navigating known by satellite, where the measurement of angular diameter of the planet used for determining the height of the satellites.

Mit diesem Verfahren ist es jedoch nicht möglich, andere Parameter der Umlaufbahn zu ermitteln. Darüberhinaus sind die genauen Informationen über die Form des Planeten erforderlich.However, with this method it is not possible to use other orbital parameters determine. Moreover, the exact information about the shape of the planet required.

Ausgehend von den beschriebenen Nachteilen des Standes der Technik stellt sich die Erfindung die Aufgabe, ein Verfahren und eine Vorrichtung zur autonomen Echtzeit- Satellitennavigation zu schaffen, die unabhängig von Daten aus externen Quellen, z. B. einer Bodenstation, sind und mit einem Minimum von A-priori-Informationen aus­ kommen, schnell konvergieren und robust gegenüber Oberflächenstörungen sind.Based on the described disadvantages of the prior art, the It is the object of the invention to provide a method and a device for autonomous real-time Satellite navigation, independent of data from external sources, eg. B. a ground station, and are out with a minimum of a priori information come, converge quickly and are robust to surface defects.

Erfindungsgemäß wird die Aufgabe durch ein Verfahren mit den Merkmalen des An­ spruchs 1 und durch eine Vorrichtung mit den Merkmalen des Anspruchs 3 gelöst. Vor­ teilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen beschrieben.According to the invention, the object is achieved by a method having the features of claim 1 and solved by a device having the features of claim 3. before Advantageous embodiments of the invention are described in the subclaims.

Die erfindungsgemäße Lehre offenbart ein alternatives Verfahren zur Landmarken- Navigation, das einen neuen Ansatz optoelektronischer Navigation unter Verwendung von Bildbewegungsverfolgung anstatt Landmarkenverfolgung nutzt und eine Vorrich­ tung zur Durchführung des Verfahrens. Dieses Verfahren erfordert auch die Beobach­ tung der Planetenoberfläche mit einem Onboard-Bilderfassungsgerät, verwendet jedoch andere, allgemeinere Daten.The teaching according to the invention discloses an alternative method for landmarks. Navigation, using a new approach optoelectronic navigation uses image motion tracking instead of landmark tracking and a Vorrich for the implementation of the procedure. This procedure also requires the observation tion of the planetary surface with an onboard image capture device, but uses other, more general data.

Das Navigationsprinzip basiert auf der Tatsache, daß die Bildbewegung in der Fokal­ ebene eines an Bord befindlichen, auf den Planeten gerichteten Bilderfassungsgeräts die relative Bewegung von Satellit und beobachteter Planetenoberfläche erfaßt. Die augen­ blickliche Bildbewegung in der Fokalebene ist durch die Position und Lage des Satelli­ ten relativ zur Bewegung der Planetenoberfläche definiert, die von der Form und der Rotation des Planeten abhängt. Dadurch können sowohl die Lage als auch Informatio­ nen über die Umlaufbahn aus einer Sequenz beobachteter Bilder mit einem Minimum von A-priori-Informationen ermittelt werden. The navigation principle is based on the fact that the image movement in the focal plane of an on-board, directed at the planet imaging device the detected relative motion of satellite and observed planetary surface. The eyes Immediate image movement in the focal plane is due to the position and position of the satellite defined relative to the movement of the planetary surface, of the shape and the Rotation of the planet depends. This allows both the location and Informatio via the orbit from a sequence of observed images with a minimum be determined from a priori information.  

Insbesondere benötigt das vorgeschlagene Navigationsverfahren keine im Vorhinein gespeicherte Landmarkendatenbank. Der einfache Vergleich aufeinanderfolgender, in kurzen Zeitabständen aufgenommener Bilder hängt darüberhinaus nicht von den Licht­ verhältnissen oder saisonalen Änderungen ab.In particular, the proposed navigation method does not require any in advance saved landmark database. The simple comparison of consecutive, in short intervals of recorded images also does not depend on the light conditions or seasonal changes.

Bildbewegungsverfolgung basiert auf zweidimensionaler Korrelationsanalyse und er­ laubt Korrelationsgenauigkeiten auf Sub-Pixel-Niveau. Der besondere Vorteil spektraler Bildinformationsverarbeitung liegt in der Unabhängigkeit von einzelnen Bildmerkma­ len. Diese Art der Bildanalyse beruht im Gegensatz zur Landmarkenverfolgung allein auf dem Gesamtmuster des Bildes. Dadurch sind Korrelationsmethoden extrem robust gegenüber Bildstörungen und höchst zweckmäßig, wenn komplexe Bildstrukturen vor­ liegen, wie es bei Satellitenbildern der Fall ist.Image motion tracking is based on two-dimensional correlation analysis and he allows correlation accuracies at sub-pixel level. The special advantage spectral Image information processing lies in the independence of individual pictorial feature len. This type of image analysis is based unlike landmark tracking alone on the overall pattern of the picture. This makes correlation methods extremely robust against image disturbances and highly expedient if complex image structures lie, as is the case with satellite imagery.

Infolge der hohen Aktualisierungsgeschwindigkeit liefert das Verfahren akkurate In­ formationen zu Umlaufbahn und Lage schon in den ersten Umkreisungen.Due to the high update rate, the method provides accurate In Formations to orbit and location already in the first revolutions.

Die Anwendung des vorgeschlagenen autonomen Navigationssystem kann von beson­ derem Interesse sein im Zusammenhang mit:
The application of the proposed autonomous navigation system may be of particular interest in connection with:

  • - Notfall- bzw. Ersatz-Navigationssystemen für Fernerkundungssatelliten unter Verwendung der herkömmlichen, sowieso an Bord befindlichen Fernerkundungs­ sensoren als Bilderfassungsgerät,- Emergency or replacement navigation systems for remote sensing satellites Using the conventional, on-board remote sensing anyway sensors as an image capture device,
  • - Intelligenten Bilderfassungsgeräten als Navigations- und Lagesensoren für kleine Satelliten,- Intelligent image acquisition devices as navigation and position sensors for small satellite,
  • - Datenfusionssystemen (Datenfusion: Zusammenführung verschiedenartiger Daten zur Ermittlung des Systemzustands),- Data fusion systems (data fusion: merging of diverse data to determine the system status),
  • - Notfall- bzw. Ersatz-Navigationssystemen für Planetenmissionen.- Emergency or replacement navigation systems for planetary missions.

Datenfusion bedeutet die gemeinsame Nutzung von Meßdaten verschiedener Sensoren für die Bestimmung der Umlaufbahn oder Orientierung von Satelliten, wie z. B. Stern­ sensoren, Horizontsensoren, Telemetriedaten usw. Je mehr Daten vorhanden sind, desto genauer und robuster ist die Bestimmung. Data fusion means the sharing of measurement data from different sensors for the determination of the orbit or orientation of satellites, such. Star sensors, horizon sensors, telemetry data, etc. The more data there is, the more more accurate and robust is the determination.  

Ersatz- oder Backup-Systeme sind notwendig in Fällen, wenn die Hauptnavigations- oder Lagebestimmungssysteme teilweise oder komplett ausgefallen sind. Hier können die Meßgrößen von alternativen Backup-Systemen die einzigen sein, die man für die Erfüllung der Missionsaufgaben benutzen kann.Replacement or backup systems are necessary in cases when the main navigation system or positioning systems have partially or completely failed. Here you can the metrics of alternative backup systems are the only ones that you can use for the Fulfillment of missionary tasks.

Der Navigationsansatz basiert auf der Abhängigkeit der Bildbewegung in der Fokalebe­ ne eines Onboard-Bilderfassungsgeräts von der Relativbewegung zwischen Satellit und Planetenoberfläche. Im allgemeinen ist diese Bewegung aufgrund der veränderlichen Satellitenhöhe (elliptische Umlaufbahn) oder der unterschiedlichen Oberflächenbewe­ gung (Relativbewegung aufgrund der Planetenrotation) bei unterschiedlichen Breiten nicht konstant. Das Onboard-Bilderfassungsgerät erfaßt diese Relativbewegung zwi­ schen Satellit und Planet in dem auf die Fokalebene projizierten Oberflächenbild. Diese Bildbewegung bleibt ebenfalls nicht konstant und hängt zusätzlich von der augenblick­ lichen Lage des Satelliten ab.The navigation approach is based on the dependence of the image movement in the focal plane ne an onboard image acquisition device of the relative movement between satellite and Planet's surface. In general, this movement is due to the variable Satellite altitude (elliptical orbit) or different surface weights movement (relative movement due to the planetary rotation) at different widths not constant. The onboard image acquisition device detects this relative movement between satellite and planet in the surface image projected onto the focal plane. These Picture movement also does not stay constant and depends additionally on the moment position of the satellite.

Ein Vorteil der erfindungsgemäßen Vorrichtung besteht darin, daß nur ein einzelner Sensor benötigt wird. Ein kompaktes, robustes Bilderfassungsgerät ist unempfindlicher gegen unerwünschte mechanische Verformungen und Krafteinwirkungen als eine An­ ordnung mehrerer Sensoren, woraus verläßlichere und genauere Daten resultieren.An advantage of the device according to the invention is that only a single Sensor is needed. A compact, robust image capture device is less sensitive against unwanted mechanical deformations and forces as an An order of multiple sensors, resulting in more reliable and accurate data.

Weiterhin benötigt das Verfahren keine speziellen Muster, wodurch sich die Bildbear­ beitung vereinfacht, da jegliche Art von Planetenoberflächen gleichermaßen geeignet ist und das Verfahren tolerant gegenüber den Beobachtungsbedingungen, wie Licht, jah­ reszeitliche Änderungen usw., ist.Furthermore, the method does not require special patterns, resulting in the Bildbear simplified, since any type of planetary surfaces is equally suitable and the method tolerant of observation conditions, such as light, jah reszeitliche changes, etc., is.

Das erfindungsgemäße Verfahren kommt mit einem Minimum gespeicherter A-priori- Informationen aus. Es brauchen keine Landmarken im Voraus gespeichert werden, wo­ durch an Bord kein Speicherplatz für eine Landmarken-Datenbank vorhanden sein muß. Möglicherweise ungenaue Daten über Landmarken haben daher keinen Einfluß auf die Navigationsergebnisse. Bei Verwendung der erfindungsgemäßen Vorrichtung wird kei­ ne externe Verarbeitungseinrichtung benötigt. The method according to the invention comes with a minimum of stored a priori Information out. No landmarks need to be saved in advance where there must be no storage space for a landmark database on board. Possibly inaccurate data on landmarks have therefore no influence on the Navigation results. When using the device according to the invention is kei ne external processing device needed.  

Weiterhin ist es für die Ausführung des Navigationsalgorithmus' unnötig, vorab über spezielles Wissen bezüglich der Planetenform zu verfügen. Die Bestimmung der Lage liefert bei ungefährer Kenntnis der Planetenform vergleichsweise gute Ergebnisse. Die Bestimmung sowohl der Position als auch der Lage ist die Basis für einen vollständig autonomen Betrieb des Satelliten.Furthermore, it is unnecessary for the execution of the navigation algorithm, in advance over to have special knowledge of the planetary form. The determination of the situation gives approximately good results with approximate knowledge of the planet shape. The Determining both position and location is the basis for a complete one autonomous operation of the satellite.

Für die Durchführung des erfindungsgemäßen Verfahrens ist eine schnelle Bildverarbei­ tung erforderlich. Zur Gewinnung von Echtzeitdaten auf der Schattenseite des Planeten muß eine Infrarotkamera verwendet werden. Der Planet muß über eine erkennbare und stabile Oberflächenstruktur verfügen, was nicht bei allen Planeten des Sonnensystems der Fall ist. Der Arbeitsbereich ist bezüglich der Lage insofern beschränkt, als der Pla­ net im Blickfeld des Bilderfassungsgeräts liegen muß.For the implementation of the method according to the invention is a fast Bildverarbei required. To obtain real-time data on the shadow side of the planet An infrared camera must be used. The planet must have a recognizable and stable surface structure, which is not the case for all planets of the solar system the case is. The work area is limited in the situation insofar as the Pla net must be in the field of vision of the image capture device.

Unter Bildbewegung wird die Bewegung von Ausschnitten des Abbildes der überfloge­ nen Oberfläche in der Bildebene des Bilderfassungsgerätes verstanden, die auf der Rela­ tivbewegung zwischen Satellit und überflogener Oberfläche beruht und die sich dadurch bemerkbar macht, daß sich der gleiche Bildausschnitt in aufeinanderfolgend aufge­ nommenen Bildern an unterschiedlichen Stellen befindet. Die Pfade dieser Bildaus­ schnitte oder Bildblöcke werden von den räumlichen Verhältnissen zwischen der Bild­ ebene und dem beobachteten Oberflächenbereich bestimmt. Daher enthalten diese Pfa­ de, bzw. diese Bildbewegungen, die Information über die 3D-Bewegung des Bilderfas­ sungsgerätes relativ zur Oberfläche. Die Bildbewegung läßt somit Rückschlüsse auf die Bewegung des Satelliten über der überflogenen Oberfläche zu. Diese Information kann aus der gemessenen Bildbewegung gewonnen werden, um später für höherwertige Al­ gorithmen zur Lage- und Positionsbestimmung genutzt werden zu können.Under image motion, the movement of sections of the image is overflown NEN surface in the image plane of the image acquisition device understood on the Rela the movement between the satellite and the overflown surface is due to makes noticeable that the same image section in successively aufges taken pictures in different places. The paths of this picture Sections or image blocks are determined by the spatial relationships between the image level and the observed surface area. Therefore, these Pfa de, or these image movements, the information about the 3D movement of the Bildfas sungsgerätes relative to the surface. The image movement thus allows conclusions on the Movement of the satellite over the surface overflown. This information can can be obtained from the measured image motion to later for higher quality Al gorithms can be used for position and position determination.

Eine Verbindung dieses Konzepts mit konventioneller Landmarken-Navigation ist ebenfalls möglich. Dadurch können einerseits die Genauigkeit verbessert werden und andererseits die an Bord mitzuführende Landmarken-Datenbank und damit die Kosten erheblich reduziert werden. Die Landmarken-Messungen unterstützen außerdem die Bestimmung des sechsten Parameters der Umlaufbahn, der Rektaszension Ω des auf­ steigenden Knotens (Keplersche Bahnparameter). Die hohe Geschwindigkeit der Bild­ bewegungsverfolgung erlaubt die Implementation einer Landmarkenverfolgung, wo­ durch die Navigationsleistung verbessert werden kann, weil während des Passierens einer Landmarke oder einer Gruppe von Landmarken durch das Beobachtungsgebiet des Bilderfassungsgeräts mehrere Aktualisierungen der Informationen über die Umlaufbah­ nen erfolgen können.A combination of this concept with conventional landmark navigation is also possible. As a result, on the one hand, the accuracy can be improved and on the other hand, the landmark database to be carried on board and thus the costs be significantly reduced. The landmark measurements also support the Determination of the sixth parameter of the orbit, the right ascension Ω of the rising node (Keplerian orbital parameters). The high speed of the picture  Motion Tracking allows the implementation of landmark tracking where can be improved by the navigation performance because while passing a landmark or a group of landmarks through the observation area of the Image capture device several updates of the information about the orbital can be done.

Mit der Kenntnis aller Elemente der Umlaufbahn, die autonom bestimmt werden, kann die Lage in Roll-Pitch-Yaw-(RPY)-Koordinaten in das Inertialsystem transformiert werden. Daher gestattet ein solches Mischkonzept sogar eine vollständig autonome Na­ vigation und Lagebestimmung im Bezugs-Inertialsystem.With the knowledge of all elements of the orbit, which can be determined autonomously transformed the location into roll-pitch-yaw (RPY) coordinates into the inertial system become. Therefore, such a mixing concept even allows a completely autonomous Na vigation and orientation in the reference inertial system.

Die von der Bildbewegungsanalyse bereitgestellten Navigations- und Lage-Daten kön­ nen für Leistungssteigerungen existierender Onboard-Navigationssysteme, die mit an­ deren Sensoren arbeiten, verwendet werden.The navigation and attitude data provided by the image motion analysis may be for performance enhancements to existing onboard navigation systems with whose sensors work, are used.

Anhand nachfolgender Zeichnungen wird die Erfindung näher erläutert. Dabei zeigenWith reference to the following drawings, the invention will be explained in more detail. Show

Fig. 1 einen Satelliten an verschiedenen Positionen seiner Umlaufbahn Fig. 1 shows a satellite at different positions of its orbit

Fig. 2 die Verfahrensschritte des erfindungsgemäßen Navigationsverfahrens Fig. 2 shows the method steps of the navigation method of the invention

Fig. 3 den prinzipiellen Aufbau der erfindungsgemäßen Vorrichtung Fig. 3 shows the basic structure of the device according to the invention

Fig. 4 die unterschiedliche Abbildung gleicher Oberflächenobjekte in verschiedenen Lagen/Positionen des Satelliten Fig. 4 shows the different imaging of the same surface properties in different layers / positions of the satellite

Fig. 5 die Bewegung von Bildblöcken in der Bildebene des Bilderfassungsgeräts Fig. 5 shows the movement of image blocks in the image plane of the imaging apparatus

Fig. 6 das Referenzkoordinatensystem des Bilderfassungsgeräts Fig. 6, the reference coordinate system of the imaging apparatus

Fig. 7 das Prinzip der Bildbewegungsverfolgung Fig. 7 shows the principle of image motion tracking

Fig. 8 die Definition der Navigationswinkel λ, χ, β Fig. 8 shows the definition of the navigation angle λ, χ, β

Fig. 9 die Bildblockverfolgung anhand der Bildbewegung zwischen verschiedenen Positionen Fig. 9, the image block tracking based on the image movement between different positions

Fig. 10 eine Illustration des Begriffs "Fokus der Kontraktion" FIG. 10 is an illustration of the term "focus of contraction"

Fig. 11 eine Illustration des Begriffs "Fokus der Ausweitung" FIG. 11 is an illustration of the term "focus of expansion"

Fig. 12 das Prinzip der Umlaufbahnschätzung Fig. 12 shows the principle of orbit estimation

Fig. 13 das Prinzip der Korrektur der Rohlage Fig. 13, the principle of correction of the raw layer

Fig. 14 ein Ausführungsbeispiel der erfindungsgemäßen Vorrichtung Fig. 14 shows an embodiment of the device according to the invention

Fig. 1 zeigt eine geometrische Interpretation der Beobachtungsverhältnisse. Wenn das in dem sich auf der Umlaufbahn (2) um den Planeten (3) bewegenden Satelliten (1) an­ gebrachte Bilderfassungsgerät in definierten Zeitintervallen mehrere Bilder so auf­ nimmt, daß aufeinanderfolgende Bilder gemeinsame, überlappende Bildteile aufweisen, kann die Bildbewegung als Bewegungspfad von Bildteilen oder Blöcken entlang der Fokalebene des Bilderfassungsgeräts erfaßt werden. Fig. 1 shows a geometric interpretation of the observation conditions. If in the on the orbit ( 2 ) about the planet ( 3 ) moving satellites ( 1 ) brought image acquisition device at defined time intervals takes several pictures so that successive images have common, overlapping image parts, the image movement as a path of movement of image parts or blocks along the focal plane of the image capture device.

Die vom Sichtfeld des Bilderfassungsgeräts im jeweiligen Zeitpunkt des Überflugs auf­ einanderfolgend erfaßten, überlappenden Bereiche sind durch die Lichtkegel (4, 5, 6) dargestellt. Aufgrund der Planetenrotation wandern die erfaßten Bereiche (7, 8, 9) der Planetenoberfläche ständig in die entsprechende Richtung. Daraus ergibt sich, daß die erfaßten Bilder in anderen Bereichen (10, 11) überlappen, als dies ohne die seitliche Bewegung aufgrund der Planetenrotation der Fall wäre.The overlapping areas which are sequentially detected by the field of view of the image acquisition device at the respective time of the overflight are represented by the light cones ( 4 , 5 , 6 ). Due to the planetary rotation, the detected areas ( 7 , 8 , 9 ) of the planetary surface constantly move in the corresponding direction. As a result, the captured images in other areas ( 10 , 11 ) overlap than would be the case without lateral movement due to planetary rotation.

Der Satellit (1) nimmt auf der ersten Position ein Bild auf und fliegt weiter. Während dieses Fluges wandert der abgebildete Bereich (7) mit der Planetenoberfläche. Auf der zweiten Position bildet der Satellit (1) den zweiten Bereich der Oberfläche (8) ab. Die­ ser Bereich (8) hat einen überlappenden Teil mit dem ersten abgebildeten Bereich (7). Der zweite Bereich (8) wandert langsamer als der erste Bereich (7), weil die Geschwin­ digkeit der Oberfläche von der geografischen Breite des Bereichs abhängig ist. Auf­ grund dieser Verzögerung wird der dritte abgebildete Bereich (9) relativ zu dem zweiten Bereich (8) weniger verschoben als der zweite Bereich (8) relativ zu dem ersten Bereich (7). Für den Satelliten (1) in elliptischer Bahn (2) ändert sich die Geschwindigkeit ent­ sprechend der Höhe. In gleichen Abständen aufgenommene Bilder werden deswegen verschiedene Überlappungsanteile haben. Zusätzlich bildet sich die Satellitenrotation in einer Verschiebung der Bereiche ab.The satellite ( 1 ) takes a picture in the first position and flies on. During this flight, the imaged area ( 7 ) moves with the planetary surface. In the second position, the satellite ( 1 ) images the second area of the surface ( 8 ). The water area ( 8 ) has an overlapping part with the first imaged area ( 7 ). The second area ( 8 ) travels more slowly than the first area ( 7 ), because the speed of the surface depends on the latitude of the area. Due to this delay, the third imaged area ( 9 ) is shifted less relative to the second area ( 8 ) than the second area ( 8 ) relative to the first area ( 7 ). For the satellite ( 1 ) in elliptical orbit ( 2 ), the speed changes according to the altitude. Therefore, images taken at equal intervals will have different overlap proportions. In addition, the satellite rotation is reflected in a shift of the areas.

Es ist ersichtlich, daß für einen bestimmten Beobachtungsablauf und einen bestimmten Planeten (3) die überlappenden Bildteile für verschiedene korrespondierende Positionen des Satelliten (1) auf der Umlaufbahn (2) unterschiedlich sein können. It will be appreciated that for a given observation sequence and planet ( 3 ), the overlapping image portions may be different for different corresponding positions of the satellite ( 1 ) on the orbit ( 2 ).

Die Überlappung zwischen zwei Bildern definiert den beiden Bildern gemeinsamen Bildinhalt. Für das Verfahren ist allerdings nicht der Bildinhalt selbst, sondern die Posi­ tion der überlappenden Bereiche auf dem Bildsensor maßgebend.The overlap between two images defines the two images in common Image content. However, the process is not the image content itself, but the posi tion of the overlapping areas on the image sensor prevail.

Die Überlappung aufeinanderfolgender Bilder kann zusammen mit einem Mindestmaß von A-priori-Informationen für die Echtzeitbestimmung des Pfades des Satelliten (1) um den Planeten (3) und der Lage (Orientierung) des Satelliten benutzt werden.The overlap of successive images, along with a minimum of a priori information, may be used to determine in real time the path of the satellite ( 1 ) about the planet ( 3 ) and the position (orientation) of the satellite.

Die hierfür benötigten A-priori-Informationen beschränken sich auf:
The required a priori information is limited to:

  • - Planetenparameter wie Gravitations- und Rotationsmodell und eine grobe Be­ schreibung der Form für die Bestimmung der Lage;- Planetary parameters such as gravitational and rotational model and a rough Be writing the form for the determination of the situation;
  • - Bilderfassungsgeräteigenschaften wie Brennweite, Pixelzahl und -größe und An­ ordnung des Bildsensors, geometrische Kalibrierkoeffizienten.- Image capture device features such as focal length, pixel count and size, and on order of the image sensor, geometric calibration coefficients.

Das Gravitationsmodell des Planeten wird für die Beschreibung und die Berechnung der Satellitenbewegung um den Planeten benötigt. Das Bewegungsmodell ist notwendig für die meisten Methoden zur Berechnung der Umlaufbahn. Das Rotationsmodell braucht man, wenn die Oberfläche des Planeten als Referenz für die Navigation genutzt wird. Die Beschreibung der Planetenform ist nötig für die Bestimmung der relativen Orientie­ rung des Satelliten. Minimal erforderliche Daten sind der Radius und der Abplattungs­ koeffizient des Planeten.The gravitational model of the planet is used for the description and calculation of the Satellite movement needed around the planet. The movement model is necessary for most methods for calculating the orbit. The rotation model needs one, if the surface of the planet is used as a reference for navigation. The description of the planetary shape is necessary for the determination of the relative orientation tion of the satellite. Minimum data required is radius and flattening coefficient of the planet.

Das Navigationsverfahren besteht aus mehreren Hauptstufen, wie in Fig. 2 dargestellt.The navigation method consists of several main stages, as shown in FIG .

In der ersten Stufe werden von einem an Bord des Satelliten befindlichen Bilderfas­ sungsgerät fortlaufend Bilder von der Planetenoberfläche (12) aufgenommen, die zu­ mindest in Teilbereichen überlappen, wodurch bestimmte Ausschnitte der Bilder (im folgenden Bildblöcke genannt) gleichen Inhalt haben.In the first stage, images of the planetary surface ( 12 ), which overlap at least in subregions, are continuously recorded by an on-satellite image acquisition device, whereby certain sections of the images (hereinafter called image blocks) have the same contents.

Diese Bilder werden in der Stufe der Bildbewegungsverfolgung (13) weiterverarbeitet. Dabei wird die Bewegung von Bildblöcken zwischen aufeinanderfolgenden, überlap­ penden Bildern in der Bildebene des Bilderfassungsgerätes verfolgt. Man erhält die zu unterschiedlichen Zeitpunkten gehörende Positionsvektoren ein und desselben Bild­ blocks, die die Bewegung des Bildblocks zwischen den Zeitpunkten der Aufnahme der betrachteten Bilder beschreiben, für alle betrachteten Bildblöcke.These images are further processed in the image motion tracking stage ( 13 ). The movement of image blocks between successive overlapping images in the image plane of the image acquisition device is tracked. The position vectors belonging to one and the same picture block, which describe the movement of the picture block between the times of the recording of the viewed pictures, obtained for different times, are obtained for all the picture blocks considered.

In der Stufe der Bildbewegungsanalyse (14) werden die für die Umlaufbahnschätzung benötigten Meßgrößen, d. h. die Navigationswinkel, und die Rohlage gewonnen. Die Bildbewegungsanalyse (14) ermittelt Informationen über die 3D-Bewegung des Satelli­ ten aus den Positionsvektoren der betrachteten Bildblöcke. Diese Informationen betref­ fen Navigationswinkel und die Rohlage des Satelliten. Die Navigationswinkel, die die Bewegung des Satelliten relativ zur Planetenoberfläche beschreiben, sind von der Posi­ tion des Satelliten abhängig. Eine Serie von Navigationswinkeln bestimmt eindeutig die Bewegung des Satelliten und dementsprechend die Umlaufbahn. Die Rohlage bezeich­ net die Ausrichtung des Satelliten relativ zum Planeten und zur Umlaufbahn. Zur ge­ nauen Bestimmung der Lage des Satelliten müssen diese Rohlage-Daten in einem späte­ ren Verfahrensschritt korrigiert werden.In the step of image motion analysis ( 14 ), the measured quantities required for the orbit estimation, ie the navigation angles, and the raw sheet are obtained. The image motion analysis ( 14 ) determines information about the 3D motion of the satellite from the position vectors of the considered image blocks. This information relates to navigation angles and the satellite's baseline. The navigation angles describing the movement of the satellite relative to the planetary surface depend on the position of the satellite. A series of navigation angles clearly determines the movement of the satellite and, accordingly, the orbit. The blank sheet indicates the orientation of the satellite relative to the planet and the orbit. For accurate determination of the position of the satellite, these raw layer data must be corrected in a later process step.

In der Stufe der Umlaufbahnschätzung (16) werden mit Hilfe eines Schätzalgorithmus, wie beispielsweise Kalman-Filter oder Batch-Schätzalgorithmus, auf der Basis von Meß- und Umlaufbahnmodellen aus den Navigationswinkeln Daten zur Position und Geschwindigkeit des Satelliten, z. B. in Form der augenblicklichen Keplerschen Um­ laufbahnparameter (15), bestimmt.In the stage of orbit estimation ( 16 ), using the estimation algorithm, such as Kalman filter or batch estimation algorithm, based on orbital and orbit models, from the navigation angles, satellite position and velocity data, e.g. B. in the form of the current Keplerian order track parameters ( 15 ) determined.

Der nächste Verfahrensschritt ist die Korrektur der Rohlage (17). Darin werden aus den Umlaufbahnparametern (15) Korrekturwinkel errechnet. Diese Korrekturwinkel werden anschließend dafür verwendet, die Lage des Satelliten im Roll-Pitch-Yaw-(RPY)- Koordinatensystem (18) aus der zuvor geschätzten Rohlage zu ermitteln.The next process step is the correction of the raw layer ( 17 ). Therein, correction angles are calculated from the orbit parameters ( 15 ). These correction angles are then used to determine the position of the satellite in the roll-pitch-yaw (RPY) coordinate system ( 18 ) from the previously estimated blank.

Dieser Algorithmus liefert eine Schätzung von fünf Elementen der Umlaufbahn (außer Rektaszension Ω des aufsteigenden Knotens) und der Lage im RPY- Referenzkoordinatensystem. Diese Daten sind ausreichend für:
This algorithm provides an estimate of five elements of the orbit (except right ascension Ω of the ascending node) and the location in the RPY reference coordinate system. These data are sufficient for:

  • 1. Autonome Steuerung und Beibehaltung der Umlaufbahn (z. B. Überwindung von Störungen der Höhe bei LEO-Satelliten und Halten der Station);1. Autonomous control and maintenance of the orbit (eg overcoming of Height disturbances on LEO satellites and station hold);
  • 2. Nadir-Ausrichtung von Onboard-Instrumenten.2. Nadir alignment of onboard instruments.

Fig. 3 zeigt den Aufbau einer Vorrichtung zur Durchführung des Verfahrens. Die erfin­ dungsgemäße Vorrichtung besteht aus den Hauptkomponenten Bilderfassungsgerät (56), Hochgeschwindigkeits-Verarbeitungseinheit (57), Datenverarbeitungsanlage (58), Speicher für A-priori-Daten (59) und Systemschnittstellen (60). Fig. 3 shows the structure of an apparatus for carrying out the method. The inven tion proper device consists of the main components image acquisition device ( 56 ), high-speed processing unit ( 57 ), data processing system ( 58 ), memory for a priori data ( 59 ) and system interfaces ( 60 ).

Ein an Bord befindliches Bilderfassungsgerät (56) nimmt in Zeitabständen, die von ei­ ner Hochgeschwindigkeits-Verarbeitungseinheit (57) definiert werden, Oberflächenbil­ der auf und leitet sie an diese weiter.An on-board image capture device ( 56 ) captures and forwards surface images at time intervals defined by a high speed processing unit ( 57 ).

Die Hochgeschwindigkeits-Verarbeitungseinheit (57) führt die Bildbewegungsverfol­ gung durch, indem die vom Bilderfassungsgerät (56) kommenden Bilddaten zwischen­ gespeichert werden, Bildblöcke extrahiert und gespeichert werden, anschließend eine Korrelationsanalyse der Bildblöcke paarweise durchgeführt wird, in deren Ergebnis die Bewegung der Bildblöcke in der Bildebene des Bilderfassungsgeräts (56) anhand der Positionsvektoren der Bildblöcke bekannt ist.The high-speed processing unit ( 57 ) performs the image motion tracking by storing the image data coming from the image capture device ( 56 ), extracting and storing image blocks, and then performing a correlation analysis of the image blocks in pairs, resulting in the movement of the image blocks in the image Image plane of the image acquisition device ( 56 ) is known from the position vectors of the image blocks.

Die Positionsvektoren der Bildblöcke werden an eine digitale Datenverarbeitungsanlage (58) weitergeleitet, die die Bestimmung von Navigationswinkeln, die Schätzung der Keplerschen Umlaufbahnparameter und der Lage des Satelliten auf der Basis gespei­ cherter A-priori-Daten (59) durchführt.The position vectors of the image blocks are forwarded to a digital data processing system ( 58 ) which performs the determination of navigation angles, the estimation of the Keplerian orbital parameters and the position of the satellite based on stored a-priori data ( 59 ).

Die Ergebnisdaten des durchgeführten Verfahrens, d. h. die Keplerschen Umlaufbahn­ parameter und die Lage des Satelliten, werden an Systemschnittstellen (60) weitergelei­ tet. Diese Systemschnittstellen (60) ermöglichen die Interaktion zwischen der erfin­ dungsgemäßen Vorrichtung und der Hauptbordrecheneinheit des Satelliten durch den Austausch von Befehlen und Daten. The result data of the performed method, ie the Keplerian orbit parameters and the position of the satellite, are transmitted to system interfaces ( 60 ). These system interfaces ( 60 ) allow the interaction between the device according to the invention and the main board unit of the satellite by the exchange of commands and data.

Die Darstellung in Fig. 4 zeigt die unterschiedliche Abbildung gleicher Oberflächenob­ jekte für unterschiedliche Positionen des Satelliten. Das Bilderfassungsgerät (20) fliegt über die beobachtete Oberfläche (21). Ein Bildsensor (22) befindet sich in der Bildebe­ ne des Bilderfassungsgeräts. Der Bildsensor (22) bildet zwei Bilder von der Oberfläche ab, das erste Bild zum Zeitpunkt t0 und das zweite zum Zeitpunkt t1. Zum ersten Zeit­ punkt erscheinen die Oberflächenobjekte (23, 24) auf dem Bildsensor. Im geeigneten Zeitabstand lassen sich diese Objekte auch zum zweiten Zeitpunkt auf den Bildsensor projizieren.The illustration in Fig. 4 shows the different mapping of the same Oberflächenob objects for different positions of the satellite. The image capture device ( 20 ) flies over the observed surface ( 21 ). An image sensor ( 22 ) is located in the image plane of the image capture device. The image sensor ( 22 ) images two images from the surface, the first image at time t 0 and the second at time t 1 . At the first time, the surface objects ( 23 , 24 ) appear on the image sensor. At the appropriate time interval, these objects can also be projected onto the image sensor at the second time.

In Fig. 5 ist die Bildbewegung in der Bildebene zwischen zwei aufeinanderfolgenden Aufnahmen dargestellt. FIG. 5 shows the image movement in the image plane between two successive shots.

Zwischen den beiden Zeitpunkten bewegen sich die Bilder dieser Oberflächenobjekte durch die Bildebene von Positionen (25, 26) zu Positionen (27, 28).Between the two times, the images of these surface objects move through the image plane from positions ( 25 , 26 ) to positions ( 27 , 28 ).

In Fig. 6 ist das Referenzkoordinatensystem (29) des Bilderfassungsgeräts dargestellt. Das Referenzkoordinatensystem (29) des Bilderfassungsgeräts ist mit der Anordnung von Komponenten des Bilderfassungsgeräts verknüpft. Die U-Achse ist die optische Achse des Bilderfassungsgeräts. Die VW-Ebene schneidet die U-Achse aufrecht in dem optischen Zentrum der Linse. V- und W-Achsen sind parallel zu den Rändern des Bild­ sensors und die W-Achse zeigt überwiegend in die Richtung der Bildbewegung. FIG. 6 shows the reference coordinate system ( 29 ) of the image acquisition device. The reference coordinate system ( 29 ) of the image acquisition device is associated with the arrangement of components of the image acquisition device. The U-axis is the optical axis of the image acquisition device. The VW plane intersects the U-axis upright in the optical center of the lens. V and W axes are parallel to the edges of the image sensor and the W axis points mostly in the direction of image motion.

Das Zustandekommen der Bildbewegung ist ebenfalls in Fig. 6 dargestellt. Die Bildbe­ wegung zwischen zwei Zeitpunkten wird durch einen Satz von Positionen von Bild­ blöcken im Referenzkoordinatensystem des Bilderfassungsgeräts zu den beiden Zeit­ punkten t0 und t1 bestimmt.The occurrence of the image movement is also shown in FIG . The image movement between two time points is determined by a set of positions of image blocks in the reference coordinate system of the image acquisition device at the two time points t 0 and t 1 .

Die Vektoren q sind die Positionsvektoren von Bildblöcken im Referenzkoordinatensy­ stem des Bilderfassungsgeräts. Ein q-Vektor passiert das Linsenzentrum (einen Null­ punkt des Referenzkoordinatensystems des Bilderfassungsgeräts) und die Position des Bildblocks auf der Bildebene. Der erste Vektor q0 gehört zum ersten Zeitpunkt t0 und der zweite Vektor q1 zum zweiten Zeitpunkt t1. Die Verfolgung der Bildblöcke beginnt von festgelegten Positionen. The vectors q are the position vectors of image blocks in the Referenzkoordinatensy system of the image acquisition device. A q-vector passes through the lens center (a zero point of the image acquisition device's reference coordinate system) and the position of the image block on the image plane. The first vector q 0 belongs to the first time t 0 and the second vector q 1 to the second time t 1 . The tracking of the image blocks starts from defined positions.

Das Oberflächenbild bewegt sich während der Bewegung des Satelliten über die Plane­ tenoberfläche ständig in der Bildebene des Bilderfassungsgeräts. Der in Fig. 7 näher beschriebene Algorithmus für die Bildbewegungsverfolgung bestimmt den Ablauf der Bilderfassung, des Findens und Auslesens von abzugleichenden Bildblöcken und ihren Abgleich zwecks genauer Positionsmessung. Weiter im Text bezieht sich der Begriff Vollbild auf eine Mehrzahl von Bildpixeln in der Bildebene unabhängig von der Anzahl und Anordnung mehrerer Bildsensoren. Der Bildblock ist ein kleiner Ausschnitt des Vollbildes.The surface image moves during the movement of the satellite over the Planten tenoberfläche constantly in the image plane of the image acquisition device. The image motion tracking algorithm described in more detail in FIG. 7 determines the sequence of image acquisition, finding and reading out of image blocks to be matched, and their matching for accurate position measurement. Further in the text, the term frame refers to a plurality of image pixels in the image plane regardless of the number and arrangement of a plurality of image sensors. The image block is a small part of the fullscreen.

In Fig. 7 ist der Vorgang der Bildbewegungsverfolgung in Form eines Blockdiagramms dargestellt. Der Algorithmus realisiert parallele, d. h. zeitlich überlappende, schrittweise Bildbewegungsverfolgung. Eine Linie der Verfolgung besteht aus mehreren kleinen Schritten von Bildbewegungsverfolgungen.Referring to Fig. 7, the process of image motion tracking is shown in block diagram form. The algorithm realizes parallel, ie temporally overlapping, stepwise image motion tracking. A line of pursuit consists of several small steps of image tracking.

Eine Linie beginnt mit der Erfassung des ersten Vollbildes, dann folgt das Auslesen von mehreren Referenzbildblöcken aus festgelegten Positionen, Abspeicherung der Bild­ blöcke, Extrapolation und Voraussage der Bewegung der Bildblöcke auf dem Bildsen­ sor, Erfassung von nachfolgenden Vollbildern, Auslesen von mehreren aktuellen Bild­ blöcken aus extrapolierten Positionen und Abgleich mit den Referenzbildblöcken, Ak­ kumulieren von kleinen gemessenen Blockbewegungen, Zuweisung von aktuellen Bild­ blöcken als Referenzbildblöcke und Wiederholen dieses Vorgangs, bis der Rand des Bildsensors erreicht ist. Dies bedeutet die möglichst volle Verfolgung jedes Bildblocks von einem Rand des Bildsensors zum anderen.A line begins with the capture of the first frame, then reads out several reference image blocks from defined positions, saving the image blocks, extrapolation and prediction of the motion of the image blocks on the image sor, acquisition of subsequent frames, reading of several current image blocks from extrapolated positions and alignment with the reference image blocks, Ak cumulate small measured block movements, assignment of current picture blocks as reference image blocks and repeat this process until the edge of the Image sensor is reached. This means the fullest possible tracking of each image block from one edge of the image sensor to the other.

Die Größe der Schritte hängt vom Grad der Bildverzerrung ab, die durch den sphäri­ schen Planeten, die Lage des Satelliten und Bilderfassungsgerätverzerrungen erzeugt werden kann. Dies wird aufgrund der externen Daten über die Position und Lage des Satelliten automatisch bestimmt.The size of the steps depends on the degree of image distortion caused by the sphäri planet, the location of the satellite and image acquisition device distortions can be. This is due to the external data about the position and location of the Satellites determined automatically.

Der einzelne Verfolgungsvorgang (EVV) besteht aus der Verfolgung vieler Pfade von Bildblöcken. Er wird zeitlich synchronisiert. Die Eingaben von aktuellen externen Da­ ten über die Position und Lage des Satelliten werden ebenfalls synchronisiert. Dies er­ möglicht eine genauere Voraussage der Bildblockbewegung.The single tracking process (EVV) consists of tracking many paths of Image blocks. He is synchronized in time. The inputs of current external Da  The position and position of the satellite are also synchronized. This he allows a more accurate prediction of the image block movement.

Während jedes einzelnen Verfolgungsvorganges wird ein Tupel mit allen notwendigen Datenfeldern erzeugt:
During each individual tracking process a tuple with all necessary data fields is generated:

Beschreibung der FelderDescription of the fields Code der FelderCode of fields Startpositionen von BildblöckenStart positions of image blocks SPB0, SPB1SPB0, SPB1 Endpositionen von BildblöckenEnd positions of image blocks EPB0, EPB1EPB0, EPB1 Endpositionen von ReferenzbildblöckenEnd positions of reference image blocks EPRBEPRB Bilddaten von ReferenzbildblöckenImage data of reference image blocks RBDRBD Startzeitpunkt der VerfolgungStart time of the pursuit SZP0, SZP1SZP0, SZP1 Endzeitpunkt der VerfolgungEnd time of the persecution EZP0, EZP1EZP0, EZP1 Anzahl von VerfolgungsschrittenNumber of track steps AVS0, AVS1AVS0, AVS1 Schätzwerte für Navigationswinkel und RohlageEstimates for navigation angles and rawlays MWMW Schätzwerte für Umlaufbahnparameter und RPY-LageEstimates for orbit parameters and RPY attitude ULDULD Zwischendatenintermediate data ZDATAZDATA

EPRB enthält ganzzahlige Positionen von denen die Referenzbildblöcke ausgelesen wurden.EPRB contains integer positions from which the reference image blocks are read were.

EPB0 und EPB1 enthalten gemessene Positionen der verfolgten Bildblöcke mit Sub­ pixel Auflösung. Einige Felder sind verdoppelt, sie enthalten Daten aus zwei Stufen des einzelnen Verfolgungsvorganges. Die Bildblöcke werden in jeder Stufe unabhängig von anderen Stufen verfolgt. Das bedeutet, daß die Stufen zeitlich getrennt sind. Die letzten Bildblöcke aus der ersten Stufe und die ersten Bildblöcke aus der zweiten Stufe werden aus dem selben Vollbild ausgelesen. Das bedeutet auch, die Felder EZP0 und SZP1 be­ kommen den selben Wert.EPB0 and EPB1 contain measured positions of the tracked image blocks with Sub pixel resolution. Some fields are doubled, they contain data from two levels of individual tracking process. The image blocks are independent of each level followed by other stages. This means that the stages are temporally separated. The last Image blocks from the first stage and the first image blocks from the second stage read out from the same frame. This also means the fields EZP0 and SZP1 be come the same value.

Ein EVV ist beendet, wenn beide Stufen beendet sind. Werte in den Feldern AVS0, AVS1 sind nötig zur Voraussage von Fehlerparametern der Bildblockverfolgung. Die Fehlerparameter werden während der Schätzung von Umlaufbahnparametern benötigt. Die gesamte Bildverfolgung erfolgt auf solche Weise, daß mehrere EVV gleichzeitig laufen können. Diese parallele Verfolgung ist notwendig, um ein Aktualisierungsinter­ vall des Umlaufbahnfilters zu gewährleisten, das kürzer ist als die Zeit des Laufes der Bildblöcke von einem Rand des Bildsensors zum anderen.An EVV is completed when both stages are completed. Values in the fields AVS0, AVS1 are needed to predict image frame tracking error parameters. The Error parameters are needed during the estimation of orbit parameters. The entire image tracking is done in such a way that multiple EVV simultaneously be able to walk. This parallel tracking is necessary to get an updateinter  vall the orbit filter, which is shorter than the time of the run of the Image blocks from one edge of the image sensor to the other.

Die Tupel von verschiedenen EVV befinden sich in der Reihe von einzelnen Verfol­ gungsvorgängen (REVV). Jedes Tupel wird automatisch initialisiert, wenn das Zeitin­ tervall von dem Start des letzten Tupels den vorgegebenen Wert für das Aktualisie­ rungsintervall des Umlaufbahnfilters überschreitet.The tuples of different EVV are in the series of single tracing Transactions (REVV). Each tuple is automatically initialized when the time is up tervall from the start of the last tuple the default value for the update exceeds the monitoring interval of the orbit filter.

Die Stufen eines EVV sind beendet, wenn die verfolgten Bildblöcke den Rand des Bild­ sensors erreichen oder der letzte Abgleich von Bildblöcken nicht gelingt. Die Endzeiten der Verfolgung können daher nicht äquidistant sein. Die REVV wird ständig zur weite­ ren Analyse im Speicher gehalten. Die alten Tupel werden automatisch gelöscht.The stages of an EVV are ended when the tracked image blocks the edge of the image reach sensors or the last adjustment of image blocks does not succeed. The end times Therefore, the persecution can not be equidistant. The REVV is constantly going for a long time analysis in memory. The old tuples are automatically deleted.

Nach dem Start (30) wartet der Algorithmus auf die nächste Zeitmarke (31) und dann wird das erste Vollbild erfaßt (32). Das erste Tupel in der REVV wird erstellt (33). Ein Satz von Bildblöcken wird von den festgelegten Positionen aus dem ersten Vollbild ausgelesen (34) und als Referenzbildblöcke im Feld RBD des ersten Tupels der REVV abgespeichert. Die Auslesepositionen werden in Feldern SPB0, EPB0 und EPRB abge­ speichert. Die Startzeit (festgelegt durch die Zeitmarke) wird in den Feldern SZP0 und EZP0 eingetragen. Das Feld AVS0 wird gleich Null.After the start ( 30 ), the algorithm waits for the next timestamp ( 31 ) and then the first frame is detected ( 32 ). The first tuple in the REVV is created ( 33 ). A set of image blocks is read from the designated positions from the first frame ( 34 ) and stored as reference image blocks in field RBD of the first tuple of the REVV. The readout positions are stored in fields SPB0, EPB0 and EPRB. The start time (defined by the timestamp) is entered in the fields SZP0 and EZP0. The field AVS0 becomes zero.

Dann beginnt die Hauptschleife des Algorithmus. Zur nächsten Zeitmarke (35) werden die Positionen von Bildblöcken aus dem Feld EPRB extrapoliert (36). Dazu werden Daten über die Position und Lage des Satelliten benutzt. Die Position und Lage des Sa­ telliten zu den vorigen Zeitpunkten werden aus dem Feld ZDATA genommen. Das In­ tervall für die Voraussage der Bildblockbewegung wird mit Δt bezeichnet. Das Intervall Δt wird so ausgewählt, daß während dieses Intervalls die Position und Lage des Satelli­ ten mit ausreichender Genauigkeit bestimmt werden können. Das Δt wird automatisch verkürzt bei großen Bildverzerrungen. Der Verzerrungsgrad von fortbewegten Bild­ blöcken relativ zur originalen rechteckigen Form wird berechnet und mit einem vorge­ gebenen Schwellenwert Λ verglichen (37). Then the main loop of the algorithm begins. At the next timestamp ( 35 ), the positions of image blocks are extrapolated from field EPRB ( 36 ). It uses data about the position and position of the satellite. The position and position of the satellites at the previous times are taken from the field ZDATA. The interval for the prediction of the image block movement is denoted Δt. The interval .DELTA.t is selected so that during this interval, the position and position of the satellites can be determined with sufficient accuracy. The Δt is automatically shortened for large image distortions. The degree of distortion of moving picture blocks relative to the original rectangular shape is calculated and compared with a preset threshold Λ ( 37 ).

Falls der Verzerrungsgrad gering genug und nicht störend für die Bildkorrelation ist, wird die nächste Zeitmarke erwartet (35) und die Voraussage wird wiederholt. Falls die Verzerrungen den vorgegebenen Schwellenwert Λ überschreiten, wird das aktuelle Vollbild als letztes Bild betrachtet, bei dem die Bildkorrelation noch möglich ist. Das ist auch der Fall, wenn die Bildblöcke in Δt den Rand des Bildsensor (38) überschreiten.If the distortion level is low enough and not disturbing the image correlation, the next timestamp is expected ( 35 ) and the prediction is repeated. If the distortions exceed the predetermined threshold Λ, the current frame is considered as the last frame where the image correlation is still possible. This is also the case when the image blocks in Δt exceed the edge of the image sensor ( 38 ).

Dann wird zum aktuellen Zeitpunkt ein Vollbild erfaßt (39). Die aktuellen Bildblöcke werden von gerundeten extrapolierten Positionen ausgelesen (40). Diese aktuellen Bild­ blöcke werden dann mit den vorgespeicherten Referenzbildblöcken aus dem Feld RBD verglichen, um die Verschiebung zwischen ihnen zu messen (41). Wenn der Abgleich gelingt (42), wird das aktuelle bearbeitete Tupel in der REVV aktualisiert (44). Das Feld EPBn erhält die Summe von gemessenen Verschiebungen und gerundeten extrapo­ lierten Positionen von Bildblöcken minus den Wert des Feldes EPRB und plus den vo­ rigen Wert des EPBn. Das bedeutet, daß nach der Aktualisierung das Feld EPBn die aktuellen Positionen der ersten Bildblöcke zum aktuellen Zeitpunkt enthält. Das Feld EPRB erhält die gerundeten Werte von EPBn. Die Werte von EPBn werden gerundet und die Bilddaten aus dem Feld RBD werden durch Bilddaten aus den neuen Positionen ersetzt. Das Feld EZPn erhält den aktuellen Zeitwert. Der Wert im Feld AVSn wird um eins erhöht. Das Feld ZDATA erhält die zuletzt benutzte Schätzung von Position und Lage des Satelliten.Then, at the present time, a frame is detected ( 39 ). The current image blocks are read out from rounded extrapolated positions ( 40 ). These current image blocks are then compared to the prestored reference image blocks from field RBD to measure the displacement between them ( 41 ). If the match succeeds ( 42 ), the current processed tuple in the REVV is updated ( 44 ). The field EPBn receives the sum of measured displacements and rounded extrapolated positions of image blocks minus the value of field EPRB and plus the full value of EPBn. This means that after the update, the field EPBn contains the current positions of the first picture blocks at the current time. The field EPRB receives the rounded values of EPBn. The values of EPBn are rounded and the image data from field RBD is replaced with image data from the new positions. The EZPn field receives the current time value. The value in the field AVSn is increased by one. The field ZDATA receives the last used estimate of position and position of the satellite.

Wenn die aktuellen Bildblöcke den Rand des Sensors erreichen oder wenn der Abgleich von Bildblöcken erfolglos war, wird die aktuelle Stufe des aktuellen EVV beendet und entsprechend markiert (43). Im zweiten Fall werden die Felder nicht aktualisiert. Wenn die erste Stufe im EVV beendet ist, beginnt die zweite Stufe vom selben Vollbild und deswegen vom selben Zeitpunkt.If the current image blocks reach the edge of the sensor, or if image frame matching was unsuccessful, the current stage of the current EVV is terminated and marked accordingly ( 43 ). In the second case, the fields are not updated. When the first stage in EVV is finished, the second stage starts from the same frame and therefore from the same time.

Danach werden alle unbeendeten Tupel in der REVV geprüft (45). Für jeden EVV wird die Bildblockbewegung zum aktuellen Zeitpunkt aus dem Feld EZPn des aktuellen Tu­ pels fortbewegt. Wenn die Bildblöcke den Rand des Bildsensors erreichen, werden die Stufen von geprüften EVV ohne Aktualisierung beendet. Wenn die Bildverzerrungen den vorgegebenen Schwellenwert Λ überschreiten, werden die entsprechenden EVV den selben Verfahren mit Messung der Bildverschiebung und Aktualisierung des Tupels untergezogen. Damit werden die selben Vollbilder für verschiedene bereite EVV ge­ nutzt und die Bildrate des Bilderfassungsgeräts stark reduziert.Then all unfinished tuples are checked in the REVV ( 45 ). For each EVV, the image block movement at the current time is moved out of field EZPn of the current tuple. When the image blocks reach the edge of the image sensor, the stages of tested EVV are terminated without updating. If the image distortions exceed the given threshold Λ, the corresponding EVVs are subjected to the same process with measurement of the image shift and update of the tuple. This will use the same frames for different ready EVV ge and greatly reduces the frame rate of the image acquisition device.

Ein neues Tupel wird erstellt (47), wenn das Zeitintervall zwischen aktueller und Start­ zeit des letzten EVV (Feld SZP0) das vorgegebene Aktualisierungsintervall des Um­ laufbahnfilters überschreitet. Dann wird der älteste unbeendete EVV als aktueller zu bearbeitender EVV ausgewählt (47) und eine neue Schleife beginnt. Falls keine unbe­ endeten EVV existieren, wartet der Algorithmus in der Schleife, bis ein neues Tupel erstellt worden ist.A new tuple is created ( 47 ) if the time interval between current and start time of the last EVV (field SZP0) exceeds the predetermined updating interval of the on-track filter. Then the oldest unfired EVV is selected as the current EVV to process ( 47 ) and a new loop begins. If there are no uninterrupted EVVs, the algorithm waits in the loop until a new tuple has been created.

Dieser Algorithmus erfordert die Implementierung der Messung der Bildblockverschie­ bung in Echtzeit. Während des Flugs können Beobachtungspausen auftreten. Das kann passieren, wenn die Textur der Oberfläche nicht erkennbar wird oder die Beleuchtung nicht ausreichend ist, um die Bildkorrelation zu ermöglichen (Nachtseite des Planeten). Die Pausen können jedoch zur Bearbeitung von Daten benutzt werden, die mit höherer Meßrate aufgenommen sind. Das ermöglicht eine erhöhte Aktualisierungsrate des Um­ laufbahnschätzers und damit die Eliminierung der Leistungsverminderung durch die Beobachtungspausen. Der Algorithmus muß dafür wie folgt modifiziert werden. Alle notwendigen Daten werden aufbereitet und im Tupel der REVV abgespeichert. Die notwendigen Daten sind alle Zwischenbilddaten und deren Attribute. Ein parallel lau­ fender Algorithmus übernimmt die Bearbeitung der Daten. Der Algorithmus überwacht die REVV vom ersten Tupel und startet die Bearbeitung, wenn die Bildbearbeitungs­ einheit frei ist. Trotz des erforderlichen großen Speicherplatzes erlaubt der Algorithmus eine flexible Steuerung von Navigationsmessungen. Die Messung der Bildverschiebung wird durch die 2D-Korrelation zweier Bildblöcke ausgeführt, wobei die Position der Korrelationsmaxima mit Subpixelgenauigkeit ermittelt wird.This algorithm requires implementation of the image block displacement measurement in real time. During the flight observation pauses may occur. That can happen if the texture of the surface is not recognizable or the lighting is not enough to allow the image correlation (night side of the planet). However, the breaks can be used to manipulate data that is higher Measuring rate are recorded. This allows for an increased refresh rate of the order runway estimator and thus the elimination of performance degradation by the Observation breaks. The algorithm must be modified as follows. All necessary data are processed and stored in the tuple of the REVV. The necessary data are all intermediate image data and their attributes. A parallel lau fender algorithm handles the processing of the data. The algorithm monitors the REVV from the first tuple and starts editing when the image editing unit is free. Despite the large storage space required, the algorithm allows a flexible control of navigation measurements. The measurement of the image shift is performed by the 2D correlation of two image blocks, with the position of the Correlation maxima is determined with subpixel accuracy.

Der Verzerrungsgrad der Bildblöcke wird mit folgender Regel bestimmt: Die maxima­ len Größen in V- und W-Richtungen werden für die extrapolierten Bildblöcke ermittelt. Die Differenz zwischen dieser extrapolierten und der ursprünglichen Größe von Bild­ blöcken präsentiert den Verzerrungsgrad. The degree of distortion of the image blocks is determined by the following rule: The maxima The sizes in V and W directions are determined for the extrapolated image blocks. The difference between this extrapolated and the original size of image blocks presents the degree of distortion.  

Die Bildbewegungsanalyse ermittelt die Information über die 3D-Bewegung des Satelli­ ten aus gemessenen Positionsvektoren von Bildblöcken. Hier sind es Navigationswinkel und Rohlage des Satelliten. Navigationswinkel sind von der Position des Satelliten ab­ hängig. Eine Serie von Navigationswinkeln bestimmt eindeutig die Bewegung des Sa­ telliten und dementsprechend die Umlaufbahn.The image motion analysis determines the information about the 3D motion of the satellite from measured position vectors of picture blocks. Here are navigation angles and Rohlage of the satellite. Navigation angles depend on the position of the satellite pending. A series of navigation angles clearly determines the movement of the Sa and accordingly the orbit.

Fig. 8 zeigt die Definition dreier vorgeschlagener Navigationswinkel. Der Satellit be­ wegt sich in der Umlaufbahn und nimmt drei aufeinanderfolgende und überlappende Bilder zu Zeitpunkten t0, t1 und t2 auf; wobei gilt: t0 < t1 < t2. Die Vektoren P, P und P beschreiben die Positionen des Satelliten zu diesen Zeitpunkten. Der untere Index enthält den Zeitpunkt der Vollbilderfassung. Nach der Erfassung des Vollbildes bleibt der Positionsvektor mit der Planetenoberfläche verknüpft. Während der Rotation des Planeten drehen sich diese Vektoren mit der Planetenoberfläche um die Z-Achse. Zu einem bestimmten Zeitpunkt nehmen diese Vektoren die neuen Positionen P, P und P ein. Der obere Index enthält diesen Zeitpunkt. Die Vektoren P und P dre­ hen sich um die Winkel, die proportional zu den Zeitintervallen t2 - t0 und t2 - t1 sind. Die Vektoren P, P und P liegen in der Umlaufbahnebene. Aber die Vektoren P, P und P liegen nicht mehr in dieser Ebene. Damit werden die Winkel zwischen den Vektoren auch geändert. Durch detaillierte Analyse findet man den Satz von Navigati­ onswinkeln, die die Position des Satelliten zu drei Zeitpunkten beschreiben und sich durch die Bildbewegungsanalyse ermitteln lassen. Fig. 8 shows the definition of three proposed navigation angles. The satellite is in orbit and picks up three consecutive and overlapping images at times t 0 , t 1 and t 2 ; where: t 0 <t 1 <t 2 . The vectors P, P and P describe the positions of the satellite at these times. The lower index contains the time of frame capture. After capturing the full screen, the position vector remains linked to the planetary surface. As the planet rotates, these vectors rotate with the planetary surface about the Z axis. At some point in time, these vectors occupy the new positions P, P and P. The upper index contains this time. The vectors P and P are rotated by the angles which are proportional to the time intervals t 2 -t 0 and t 2 -t 1 . The vectors P, P and P are in the orbit plane. But the vectors P, P and P are no longer in this plane. This also changes the angles between the vectors. Through detailed analysis one finds the set of navigational angles that describe the position of the satellite at three points in time and can be determined by the image motion analysis.

Der erste Navigationswinkel λ ist ein Winkel zwischen den Vektoren P und P. Der Wert λ ist immer positiv.The first navigation angle λ is an angle between the vectors P and P. The Value λ is always positive.

Der zweite Navigationswinkel χ ist ein Winkel zwischen zwei Ebenen, die sich durch die Vektoren P, P und P, P bilden.The second navigation angle χ is an angle between two planes that passes through the vectors P, P and P, P form.

Der dritte Navigationswinkel β ist ein Winkel zwischen den Vektoren B1 und B2, wobei B1 = P - P und B2 = P - P ist. Der Wert β ist immer positiv. The third navigation angle β is an angle between the vectors B 1 and B 2 , where B 1 = P - P and B 2 = P - P. The value β is always positive.

Die drei Navigationswinkel werden auf den Zeitpunkt t2 bezogen. Zumindest drei über­ lappende Bilder sind zur Ermittlung der Navigationswinkel erforderlich. Der Algorith­ mus zur Bildbewegungsanalyse besteht aus zwei Teilen. Im ersten Teil lassen sich die Winkel λ und χ ermitteln und dann wird β bestimmt.The three navigation angles are related to the time t 2 . At least three overlapping images are required to determine the navigation angles. The motion analysis algorithm consists of two parts. In the first part, the angles λ and χ can be determined and then β is determined.

Fig. 9 zeigt die geometrischen Verhältnisse. Der Bestimmung der Navigationswinkel liegt ein Bildbewegungsmodell zugrunde. Dieses Modell gibt die Positionen von be­ wegten Bildblöcken auf dem zweiten Bild q 1|k als eine Funktion von einem Zentral- und sechs Rotationswinkeln (Rohlagen) an:
Fig. 9 shows the geometric relationships. The determination of the navigation angle is based on an image movement model. This model gives the positions of moving image blocks on the second image q 1 | k as a function of a central and six rotation angles (Rohlagen):

Dazu braucht man externe Parameter wie die Höhe des Satelliten h0, h1; den Radius des Planeten R und festgelegte Anfangpositionen von Bildblöcken q 0|k. Die Rotationswinkel sind die Orientierung des Satelliten im lokalen Koordinatensystem.This requires external parameters such as the altitude of the satellite h 0 , h 1 ; the radius of the planet R and fixed starting positions of image blocks q 0 | k. The rotation angles are the orientation of the satellite in the local coordinate system.

Ein Optimierungsproblem wird gelöst, dabei werden die gemessenen Positionen mit Modellpositionen verglichen.
An optimization problem is solved by comparing the measured positions with model positions.

Daraus schätzt man den optimalen Wert:
From this one estimates the optimal value:

Dieses Verfahren wird dann für die Bilder 1 und 2 wiederholt und man erhält
This procedure is then repeated for pictures 1 and 2 and obtained

Aus Schätzwerten berechnet man zwei Navigations- und drei Rotati­ onswinkel zum Zeitpunkt t2.Estimates calculate two navigation and three rotation angles at time t 2 .

Den Navigationswinkel λ nimmt man als 01. Den Winkel χ berechnet man mit zwei Vektoren 1|01 und 0|12 aus der Formel
The navigation angle λ is taken as 01 . The angle χ is calculated with two vectors 1 | 01 and 0 | 12 from the formula

wobei M eine Rotationsmatrix ist. Der Grund ist, daß 1|01 und 0|12 einem Zustand bzw. einer Position des Satelliten entspechen, aber die lokalen Koordinatensysteme unter­ schiedlich sind, weil sie auch mit Planetenrotation verbunden sind. where M is a rotation matrix. The reason is that 1 | 01 and 0 | 12 are in a state or a position of the satellite, but the local coordinate systems below are different because they are also connected to planetary rotation.  

Mit anderen Verfahren wird der dritte Navigationswinkel β ermittelt.With other methods, the third navigation angle β is determined.

Die Bewegungsgeraden von Bildpunkten schneiden sich in einem Punkt auf der Bild­ ebene, wenn sich das Bilderfassungsgerät zwischen zwei Zeitpunkten nur translatorisch bewegt. Das gilt bei beliebiger Oberflächenform.The motion lines of pixels intersect at a point on the image level, if the image acquisition device between two times only translational emotional. This applies to any surface shape.

Wenn die Bewegungsvektoren, wie in Fig. 10 dargestellt, auf diesen Punkt zeigen, nennt man den Punkt Fokus der Kontraktion (48). Wenn die Bewegungsvektoren, wie in Fig. 11 dargestellt, aus diesem Punkt herauszeigen, nennt man den Punkt Fokus der Ausweitung (49). Wenn die Position des Fokus' (v0, w0) bekannt ist, kann der Vektor der Eigenbewegung des Bilderfassungsgeräts im Referenzkoordinatensystem des Bil­ derfassungsgeräts zwischen den Zeitpunkten t0 und t1 ermittelt werden.When the motion vectors point to this point as shown in Fig. 10, the point is called focus of contraction ( 48 ). If the motion vectors, as shown in FIG. 11, point out of this point, the point Focus of the expansion ( 49 ) is called. If the position of the focus' (v 0 , w 0 ) is known, the vector of the self-motion of the image acquisition device in the reference coordinate system of the Bilfassungsfassungs between the times t 0 and t 1 can be determined.

Im Falle der Kontraktion (48) ist der Vektor b
In the case of contraction ( 48 ), the vector b

b = [v0, w0, f]T,
b = [v 0 , w 0 , f] T ,

Im Falle der Ausweitung (49) ist der Vektor b
In the case of extension ( 49 ), the vector b

b = [-v0, -w0, -f]T.
b = [-v 0 , -w 0 , -f] T.

Dieser Vektor gibt nur die Richtung der Bewegung des Bilderfassungsgeräts im Refe­ renzkoordinatensystem des Bilderfassungsgeräts C0 an. Er sei als b 0|01, bezeichnet. Der Vektor b 1|01 im Referenzkoordinatensystem des Bilderfassungsgeräts C1 läßt sich durch Rotationstransformation aus b 0|01 ermitteln. Für die Zeitpunkte t1 und t2 wird ein Paar von Vektoren b 0|12 und b 1|12 berechnet. Die Vektoren b 1|12 und b 0|12 sind für eine bestimmte Position des Bilderfassungsgeräts bestimmt und bilden den Winkel β.This vector indicates only the direction of movement of the image acquisition device in the reference coordinate system of the image acquisition device C 0 . He is referred to as b 0 | 01. The vector b 1 | 01 in the reference coordinate system of the image acquisition device C 1 can be determined by rotation transformation from b 0 | 01. For the times t 1 and t 2 , a pair of vectors b 0 | 12 and b 1 | 12 is calculated. The vectors b 1 | 12 and b 0 | 12 are determined for a specific position of the image acquisition device and form the angle β.

Wenn das Bilderfassungsgerät seine Lage ständig ändert, haben die Bildbewegungsvek­ toren keinen gemeinsamen Punkt mehr. Hier wird die Rotation von Positionsvektoren von Bildblöcken zum zweiten Zeitpunkt verwendet, bis die Bildbewegungsvektoren auf einen Punkt zeigen. If the image capture device constantly changes its location, the image motion vectors no longer share a common point. Here is the rotation of position vectors used by image blocks at the second time until the image motion vectors on show a point.  

Die REVV wird ständig überwacht. Die Tupel mit beendeten EVV werden sofort bear­ beitet. Die ermittelten Werte von Navigationswinkeln und Rohlage werden im MW- Feld abgespeichert.The REVV is constantly monitored. The tuples with finished EVV will immediately bear beitet. The determined values of navigation angles and roughness are Field saved.

Das Prinzip der Umlaufbahnschätzung ist in Fig. 12 dargestellt. Die Position des Satel­ liten in der Umlaufbahn wird zu einem Zeitpunkt t2 durch den Zustandsvektor x (t2) beschrieben. Die Komponenten des Zustandsvektors sind Parameter eines Umlauf­ bahnmodells. Es existieren herkömmliche Umlaufbahnmodelle, wie ideale Keplersche Umlaufbahnen mit sechs Parametern, die auf den Keplerschen Parametern basierenden Modelle mit Störungen (z. B. NORAD für die Erde) oder Position/Geschwindigkeits- Modelle.The principle of orbit estimation is shown in FIG . The position of the satellite in the orbit is described at a time t 2 by the state vector x (t 2 ). The components of the state vector are parameters of a circulation model. Conventional orbit models exist, such as ideal six-parameter Keplerian orbits, models based on Kepler's parameters with perturbations (eg NORAD for the earth) or position / velocity models.

Ein Umlaufbahnfilter schätzt den Zustandsvektor des Satelliten zu einem Zeitpunkt auf­ grund eines Modells der wahren Satellitenbewegung (52) in der Umlaufbahn und aktu­ eller Meßwerte dieser Bewegung. Die Meßwerte müssen von dem Zustandsvektor ab­ hängig sein. Das Meßmodell (53) beschreibt diese Abhängigkeit.An orbital filter estimates the state vector of the satellite at one time based on a model of true satellite motion ( 52 ) in orbit and current measurements of that motion. The measured values must be dependent on the state vector. The measurement model ( 53 ) describes this dependence.

Es gibt mehrere Ansätze zur Schätzung von Umlaufbahnparametern z. B. die auf der Methode der kleinsten Quadrate basierenden Schätzer Batch-Schätzalgorithmus und Kalman-Filter.There are several approaches to estimating orbital parameters z. B. on the Least squares based estimator batch estimation algorithm and Kalman filter.

Der Schätzvorgang wird verallgemeinert in Fig. 12 gezeigt. Mit augenblicklichen Wer­ ten von Navigationswinkeln wird der Zustand des Systems geschätzt. Das erfolgt durch die Korrektur des extrapolierten Zustandes mit einem Korrekturwert, der aus den Meß­ werten erzeugt wird. Das Modell der Satellitenbewegung (52) ermöglicht die Voraussa­ ge des Zustandes von einem Zeitpunkt zu einem anderem. Das Meßmodell (53) ermit­ telt die extrapolierten Werte für die Navigationswinkel. Bei der Korrektur des Zustandes (54) werden die aktuellen Meßwerte (50) (Navigationswinkel) mit den extrapolierten Werten verglichen. Aufgrund dieser Differenz und der aus dem Modell von Meßfehlern (51) erzeugten statistischen Parametern von Meßfehlern ermittelt man die Korrektur­ werte zu dem extrapolierten Zustandsvektor, um die aktuellen Schätzwerte von Um­ laufbahnparametern (55) zu bekommen. The estimation process is shown in general terms in FIG. 12. With instantaneous values of navigation angles, the state of the system is estimated. This is done by the correction of the extrapolated state with a correction value, which is generated from the measured values. The model of satellite motion ( 52 ) allows the state to be predicted from one point of time to another. The measuring model ( 53 ) determines the extrapolated values for the navigation angles. When correcting the state ( 54 ), the current measured values ( 50 ) (navigation angle) are compared with the extrapolated values. On the basis of this difference and the statistical parameters of measurement errors generated from the model of measurement errors ( 51 ), the correction values to the extrapolated state vector are determined in order to obtain the current estimated values of real-time parameters ( 55 ).

Die REVV wird ständig auf die Tupel mit fertigen Navigationswinkeln überwacht. Die Tupel werden je nach Bereitschaft bearbeitet. Die geschätzten Werte werden im ULD- Feld abgespeichert.The REVV is constantly monitored for tuples with finished navigation angles. The Tuples are processed according to readiness. The estimated values are stored in the ULD Field saved.

In Fig. 13 ist die Korrektur der Rohlage prinzipiell dargestellt. Die Rohlage weicht von der Lage im Roll-Pitch-Yaw-Koordinatensystem ab.In Fig. 13, the correction of the green sheet is shown in principle. The raw layer differs from the position in the roll-pitch-yaw coordinate system.

Der Grund dafür ist zuerst die Abplattung und die Verformung des Planeten. An zweiter Stelle steht die Planetenrotation, da hiervon die Abweichung von der Position des Satel­ liten in der Umlaufbahn abhängt. Mit den Daten über die Position des Satelliten und die Verformung des Planeten kann die Rohlage korrigiert werden.The reason for this is first the flattening and the deformation of the planet. Second Position is the planetary rotation, as this is the deviation from the position of the satellites depends on the orbit. With the data about the position of the satellite and the Deformation of the planet can be corrected to the basal layer.

Die REVV wird ständig auf die Tupel mit fertigen Rohlagendaten überwacht. Die Tupel werden je nach Bereitschaft bearbeitet. Die ermittelten Werte der RPY-Lage werden im ULD-Feld abgespeichert. Die Positiondaten können sowohl vom Umlaufbahnfilter als auch extern geliefert werden. Andere zumindest erforderliche Daten sind Radius, Ab­ plattungskoeffizient und Rotationsperiode des Planeten. Die Genauigkeit der Korrektur ist umso höher, je detaillierter die Form des Planeten bekannt ist.The REVV is constantly monitored for tuples with finished blank data. The tuples are processed according to readiness. The determined values of the RPY position are displayed in the ULD field saved. The position data can be from both the orbit filter and also be delivered externally. Other at least required data are radius, Ab plating coefficient and rotation period of the planet. The accuracy of the correction The more detailed the shape of the planet is, the higher it is.

Erfindungsgemäß kann zur Durchführung aller Verfahrensschritte eine kompakte Vor­ richtung verwendet werden, die autonom, d. h. ohne Verwendung von Fremdressourcen arbeitet, aus Standardkomponenten aufgebaut und daher preisgünstig herzustellen ist und die in der Lage ist, über Standardschnittstellen mit anderen Geräten, wie z. B. mit dem Hauptrechner des Satelliten zu kommunizieren. Die Vorrichtung besteht aus (Fig. 14)According to the invention can be used to carry out all the steps a compact ago direction, which works autonomously, ie without the use of foreign resources, built from standard components and therefore inexpensive to manufacture and which is able to communicate via standard interfaces with other devices such. B. to communicate with the main computer of the satellite. The device consists of ( Fig. 14)

  • - einem Bilderfassungsgerät (61), das das Licht von der beobachteten Oberfläche auf die Mehrheit von lichtempfindlichen Elementen projiziert und ein Vollbild erzeugt,an image capture device ( 61 ) which projects the light from the observed surface onto the majority of photosensitive elements and produces a frame,
  • - einem Bildbuffer (62), der das Vollbild erhält,an image buffer ( 62 ) which receives the full image,
  • - einer Recheneinheit 1 (63), die alle notwendigen Berechnungen zur Bildbewe­ gungsverfolgung übernimmt, die Tupel in der REVV aktualisiert und einen 2D- Korrelator steuert, a computation unit 1 ( 63 ) which takes over all the necessary image tracking tracing calculations, updates the tuples in the REVV and controls a 2D correlator,
  • - einem 2D-Korrelator (64), der die Berechnung der 2D-Korrelationsfunktion über­ nimmt und die Verschiebung von Bildblöcken ermittelt,a 2D correlator ( 64 ), which takes over the calculation of the 2D correlation function and determines the displacement of image blocks,
  • - einem Rereferenztimer (65), der die Referenzzeitmarke erzeugt,a reference timer ( 65 ) generating the reference time stamp,
  • - einer Recheneinheit 2 (66), die die Bildbewegungsanalyse übernimmt,a computing unit 2 ( 66 ) which performs the image motion analysis,
  • - einer Recheneinheit 3 (67), die die Umlaufbahnparameter und RPY-Lage ermittelt,a computing unit 3 ( 67 ) which determines the orbit parameters and RPY position,
  • - einem REVV-Speicher (68), der die Daten von laufenden einzelnen Verfolgungs­ vorgängen enthält,a REVV memory ( 68 ) containing the data from ongoing individual tracking operations,
  • - einer externen Schnittstelle (69), die die Vorrichtung mit der Hauptbordrechenein­ heit verbindet.- An external interface ( 69 ), which connects the device with the Hauptbordrechenein unit.

Die Arbeitsweise der erfindungsgemäßen Vorrichtung zur autonomen Satellitennaviga­ tion kann wie folgt zusammengefaßt werden:
Die Recheneinheit 1 (63) wird vom Referenztimer synchronisiert und führt die Extrapo­ lation der Bildblöcke aufgrund der Daten über die Position und Lage des Satelliten (70) durch. Die Recheneinheit 3 (67) liefert diese Daten als entsprechend überarbeitete Er­ gebnisse der Umlaufbahnschätzung oder als externe Daten von der externen Schnittstel­ le (69). Die Recheneinheit 1 (63) aktualisiert die REVV Inhalt und erstellt neue Tupel, wenn notwendig. Die Vollbilddaten werden aus dem Vollbildbuffer (62) ausgelesen.
The operation of the device according to the invention for autonomous satellite navigation can be summarized as follows:
The arithmetic unit 1 ( 63 ) is synchronized by the reference timer and performs the extrapolation of the image blocks based on the position and attitude of the satellite ( 70 ). The arithmetic unit 3 ( 67 ) supplies these data as correspondingly revised results of the orbit estimation or as external data from the external interface ( 69 ). The arithmetic unit 1 ( 63 ) updates the REVV content and creates new tuples if necessary. The frame data is read from the frame buffer ( 62 ).

Die in der REVV gespeicherten Referenz- und aus dem Vollbildbuffer ausgelesenen aktuellen Bildblöcke werden paarweise in den 2D-Korrelator weitergeleitet. Dieser gibt für jedes Paar den Verschiebungswert zurück. Diesen Wert benutzt die Recheneinheit 1 für die Aktualisierung der Daten in der REVV.The reference blocks stored in the REVV and read out of the frame buffer current picture blocks are forwarded in pairs in the 2D correlator. This returns the shift value for each pair. This value is used by the arithmetic unit 1 for updating the data in the REVV.

Das Bilderfassungsgerät (61) wird von der Recheneinheit 1 so gesteuert, daß die Bild­ aufnahme zu bestimmten Zeitpunkten erfolgt. Die Belichtungszeit wird von der Re­ cheneinheit 1 bestimmt, um die Schärfe der Bilder zu gewährleisten. Das Vollbild wird im Vollbildbuffer (61) abgespeichert. Die Aufnahmezeitpunkte werden in die entspre­ chenden Felder in den Tupel der REVV eingetragen. The image acquisition device ( 61 ) is controlled by the arithmetic unit 1 so that the image recording takes place at certain times. The exposure time is determined by the Re cheneinheit 1 to ensure the sharpness of the images. The frame is stored in the frame buffer ( 61 ). The recording times are entered in the corresponding fields in the tuple of the REVV.

Der REVV-Speicher (68) enthält die REVV. Die Recheneinheit 1 löscht die nicht nutz­ baren und alten Tupel in der REVV. Die Recheneinheit 2 (66) greift auf den REVV- Speicher zu und überwacht diesen ständig auf die beendeten Tupel mit fertigen Mes­ sungen der Bildbewegung. Falls es solche gibt, ermittelt die Recheneinheit 2 die Navi­ gationswinkel und Rohlage. Dazu werden die Daten über die Position und Lage des Satelliten (70) benutzt. Die ermittelten Werte werden in der REVV wieder abgespei­ chert.The REVV memory ( 68 ) contains the REVV. The arithmetic unit 1 deletes the unusable and old tuples in the REVV. The arithmetic unit 2 ( 66 ) accesses the REVV memory and constantly monitors it for the completed tuples with ready measurements of the image movement. If there are such, the arithmetic unit 2 determines the Navi gationswinkel and Rohlage. For this purpose, the data about the position and position of the satellite ( 70 ) are used. The determined values are saved again in the REVV.

Die Recheneinheit 3 (67) schätzt die Umlaufbahnparameter und korrigiert die Rohlage. Das erfolgt bei den Tupeln mit fertigen Werten von Navigationswinkeln. Die Ergebnis­ se der Schätzung können bei Bedarf an die Hauptbordrecheneinheit durch die externe Schnittstelle (69) übertragen werden.The arithmetic unit 3 ( 67 ) estimates the orbit parameters and corrects the raw sheet. This is done with the tuples with finished values of navigation angles. The results of the estimation may be transmitted to the main board unit through the external interface ( 69 ) when needed.

In einer vorteilhaften Ausgestaltung kommen beim Aufbau der erfindungsgemäßen Vorrichtung folgende Komponenten zum Einsatz:In an advantageous embodiment come in the construction of the invention Device the following components are used:

BilderfassungsgerätImage capture device

Standard-Digitalkamera mit einem Objektiv, Sonnenschutz, Matrixbildsensoren in der Bildebene. Belichtungssteuerung für Bildsensoren ist notwendig. Interline transfer CCD Matrixbildsensoren sind bevorzugt (SONY ICX282AQF).Standard digital camera with a lens, sunscreen, matrix image sensors in the Image plane. Exposure control for image sensors is necessary. Interline transfer CCD Matrix image sensors are preferred (SONY ICX282AQF).

Objektiv Typ Biogon® T* 4.5/38 CF (Zeiss).Lens type Biogon® T * 4.5 / 38 CF (Zeiss).

VollbildbufferFull Screen Buffer

Eine Anzahl von Speicher-Chips (z. B. Dynamisches oder Statisches RAM).A number of memory chips (eg dynamic or static RAM).

Recheneinheit 1, 2, 3Arithmetic unit 1, 2, 3

Standardcomputer mit CPU, Programm- und Datenspeicher, externen Schnittstellen (z. B. PCI oder Speicherabgebildeter Typ).Standard computer with CPU, program and data memory, external interfaces (eg. PCI or memory mapped type).

Beispiel, weltraumgeeigneter RHPPC Single Board Computer, Honeywell.Example, space-suited RHPPC single board computer, Honeywell.

2D-Korrelator2D correlator

Eine spezielle Einheit basiert auf FFT DSP, z. B. DSP-24, DSP Architectures Inc. oder auf Optischer Korrelator Technologie, z. B. SOCAP, TU-Dresden, Deutschland; MROC™, Litton Data Systems, USA.A special unit is based on FFT DSP, e.g. DSP-24, DSP Architectures Inc. or on optical correlator technology, eg. B. SOCAP, TU-Dresden, Germany; MROC ™, Litton Data Systems, USA.

Referenztimerreference timer

Standard Quarzstabilisierter PulsgeneratorStandard quartz-stabilized pulse generator

REVV-SpeicherREVV memory

Eine Anzahl von Speicher-Chips (z. B. Dynamisches oder Statisches RAM).A number of memory chips (eg dynamic or static RAM).

Externe SchnittstelleExternal interface

PCI-Bus, serielle Schnittstelle (RS232) oder änliches PCI bus, serial interface (RS232) or similar  

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11

Satellit
satellite

22

Umlaufbahn
orbit

33

Planet
planet

44

, .

55

, .

66

Sichtbereiche des Satelliten (Lichtkegel)
Viewing areas of the satellite (light cone)

77

, .

88th

, .

99

erfaßte Bereiche der Planetenoberfläche
captured areas of the planet surface

1010

, .

1111

Überlappungen der erfaßten Bereiche
Overlaps of the detected areas

1212

Bilder von der Planetenoberfläche
Pictures of the planet surface

1212

a Bilddaten
a image data

1313

Stufe des Bildverarbeitungsprozesses
Level of the image processing process

1313

a Positionsvektoren
a position vectors

1414

Stufe der Bildbewegungsanalyse
Level of image motion analysis

1414

a Rohlage
a Rohlage

1414

b Navigationswinkel
b navigation angle

1515

Keplersche Umlaufbahnparameter
Keplerian orbit parameters

1616

Stufe der Umlaufbahnschätzung
Level of orbit estimation

1717

Rohlage
green sheet

1818

Lage des Satelliten im Roll-Pitch-Yaw Koordinatensystem
Position of the satellite in the roll-pitch-yaw coordinate system

1919

Positionsdaten
position data

2020

Bilderfassungsgerät
Image capture device

2121

Oberfläche
surface

2222

Bildsensor
image sensor

2323

, .

2424

Oberflächenobjekte
surface properties

2525

, .

2626

Positionen von Bildern der Oberflächenobjekte zum Zeitpunkt t0
Positions of images of the surface objects at time t0

2727

, .

2828

Positionen von Bildern der Oberflächenobjekte zum Zeitpunkt t1
Positions of images of the surface objects at time t1

2929

Referenzkoordinatensystem des Bilderfassungsgeräts
Reference coordinate system of the image acquisition device

3030

Start des Algorithmus zur Bildbewegungsverfolgung
Start the algorithm for image motion tracking

3131

Warten auf Zeitmark
Waiting for timemark

3232

Erfassung eines Vollbildes
Capture a full screen

3333

Erstellen eines neuen Tupels in der REVV
Create a new tuple in the REVV

3434

Auslesen eines Satzes von Bildblöcken
Reading a set of image blocks

3535

Warten auf Zeitmarke
Waiting for timestamp

3636

Fortbewegen Blockbewegung in Δt
Moving block movement in Δt

3737

Vergleich mit dem Schwellenwert Λ
Comparison with the threshold Λ

3838

Prüfen, ob alle Bildblöcke auf dem Sensor sind
Check if all image blocks are on the sensor

3939

Erfassen eines Vollbilds zum aktuellen Zeitpunkt
Capture a full screen at the current time

4040

Ausschneiden Bildblöcke aus vorhergesagten Positionen als aktuelle Blöcke
Cut out image blocks from predicted positions as current blocks

4141

Messen der Verschiebung zwischen Referenz- und aktuellen Blöcken
Measuring the displacement between reference blocks and current blocks

4242

Prüfen ob die Messung erfolgreich war
Check if the measurement was successful

4343

Beenden der aktuellen Stufe des aktuellen Tupel
Finish the current level of the current tuple

4444

Aktualisierung und ggf. Beendigung des aktuellen Tupel in REVV
Updating and possibly terminating the current tuple in REVV

4545

Prüfen und aktualisieren aller unbeendeten Tupel
Review and update all unfinished tuples

4646

Erstellen ein neuen Tupels in REVV, wenn nötig
Create a new tuple in REVV if needed

4747

Markieren des ältesten unbeendeten Tupels als aktuell
Marking the oldest unfinished tuple as current

4848

Fokus der Kontraktion
Focus of contraction

4949

Fokus der Ausweitung
Focus of expansion

5050

Navigationswinkel
navigation angle

5151

Modell von Meßfehlern
Model of measurement errors

5252

Umlaufbahnmodell
Orbit model

5353

Meßmodell
measurement model

5454

Korrektur des Zustandes
Correction of the condition

5555

Schätzwerte von Umlaufbahnparametern
Estimates of orbit parameters

5656

Onboard-Bilderfassungsgerät
Onboard image capture device

5656

a Bilddaten
a image data

5757

Hochgeschwindigkeits-Verarbeitungseinheit
High speed processing unit

5757

a Positionsvektoren
a position vectors

5858

Datenverarbeitungsanlage
Data processing system

5858

a Keplersche Umlaufbahnparameter und RPY-Lage
a Keplerian orbit parameter and RPY attitude

5959

A-priori-Daten
A priori data

5959

a Planetenparameter, Eigenschaften des Bilderfassungsgerätes
a planetary parameter, properties of the image acquisition device

6060

Systemschnittstellen
System Interfaces

6161

Bilderfassungsgerät
Image capture device

6262

Bildbuffer
image buffer

6363

Recheneinheit 1
Arithmetic unit 1

6464

2D-Korrelator
2D correlator

6565

Referenztimer
reference timer

6666

Recheneinheit 2
Arithmetic unit 2

6767

Recheneinheit 3
Arithmetic unit 3

6868

REW-Speicher
REW memory

6969

Externe Schnittstelle
External interface

7070

Daten über die Position und Lage des Satelliten
Data about the position and position of the satellite

Claims (10)

1. Verfahren zur Bestimmung der Position und Lage eines Satelliten unter Verwen­ dung von Bildbewegungsinformationen, bestehend aus
einer Stufe der Bilderfassung, in der von einem an Bord des Satelliten befindli­ chen Bilderfassungsgerät fortlaufend Bilder von der Planetenoberfläche aufge­ nommen werden, die zumindest in Teilbereichen überlappen, wodurch bestimmte Ausschnitte der Bilder (im folgenden Bildblöcke genannt) gleichen Inhalt haben,
einer Stufe der Bildbewegungsverfolgung, in der die Bewegung von Bildblöcken zwischen aufeinanderfolgenden, überlappenden Bildern in der Bildebene des Bil­ derfassungsgerätes verfolgt wird, wodurch die zu unterschiedlichen Zeitpunkten gehörenden Positionsvektoren ein und desselben Bildblocks, die die Bewegung des Bildblocks zwischen den Zeitpunkten der Aufnahme der betrachteten Bilder beschreiben, für alle betrachteten Bildblöcke erhalten werden,
einer Stufe der Bildbewegungsanalyse, in der Informationen über die 3D- Bewegung des Satelliten, nämlich die für die Umlaufbahnschätzung benötigten Navigationswinkel, die die Bewegung des Satelliten relativ zur Planetenoberflä­ che beschreiben und die von der Position des Satelliten abhängig sind, und die Rohlage, die die Ausrichtung des Satelliten relativ zum Planeten und zur Umlauf­ bahn bezeichnet, aus den Positionsvektoren der betrachteten Bildblöcke ermittelt werden,
einer Stufe der Umlaufbahnschätzung, in der mit Hilfe eines Schätzalgorithmus auf der Basis von Meß- und Umlaufbahnmodellen aus den Navigationswinkeln Daten zur Position und Geschwindigkeit des Satelliten, z. B. in Form der augen­ blicklichen Keplerschen Umlaufbahnparameter, bestimmt werden,
einer Stufe der Korrektur der Rohlage, in der aus den Umlaufbahnparametern Korrekturwinkel errechnet werden und anschließend aus der zuvor geschätzten Rohlage mit Hilfe dieser Korrekturwinkel die Lage des Satelliten im Roll-Pitch- Yaw-(RPY)-Koordinatensystem ermittelt wird.
A method of determining the position and attitude of a satellite using image motion information consisting of
a stage of image acquisition in which an image acquisition device aboard the satellite continuously takes up images of the planetary surface that overlap, at least in subregions, whereby certain sections of the images (hereinafter called image blocks) have the same content,
a step of image motion tracking in which the movement of image blocks between successive overlapping images in the image plane of the image acquisition device is tracked, whereby the position vectors of one and the same image block belonging at different times represent the movement of the image block between the times of the acquisition of the viewed images be obtained for all considered image blocks,
a level of image motion analysis that contains information about the 3D motion of the satellite, namely the navigation angles needed for orbit estimation, which describe the motion of the satellite relative to the planetary surface and which depend on the position of the satellite, and the roulette ground Orientation of the satellite relative to the planet and to the orbit called, be determined from the position vectors of the considered image blocks,
a stage of the orbit estimation in which, using an estimation algorithm based on orbital and orbit models, from the navigation angles, satellite position and velocity data, e.g. In the form of the current Keplerian orbital parameters,
a step of correction of the raw layer, in which correction angles are calculated from the orbit parameters and then the position of the satellite in the roll-pitch-yaw (RPY) coordinate system is determined from the previously estimated raw layer with the aid of these correction angles.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Berechnung der Parameter der Satellitenbewegung die Bildbewegung als di­ rekte Eingangsgrößen nutzt.2. The method according to claim 1, characterized in that the calculation of the parameters of satellite motion the image movement as di uses direct input quantities. 3. Vorrichtung für die Bestimmung der Position und Lage eines Satelliten unter Verwendung von Bildbewegungsinformationen, bestehend aus
einem Bilderfassungsgerät zur Aufnahme von Oberflächenbildern in definierten Zeitabständen,
einer Hochgeschwindigkeits-Verarbeitungseinheit zur Ansteuerung eines Bilder­ fassungsgeräts und zur Durchführung einer Bildbewegungsverfolgung, bestehend aus der Zwischenspeicherung von Bilddaten, der Extraktion und Speicherung von Bildblöcken, der Durchführung einer Korrelationsanalyse von Bildblöcken und der Berechnung von Positionsvektoren der Bildblöcke,
einer digitalen Datenverarbeitungseinrichtung zur Durchführung einer Bildbewe­ gungsanalyse, bestehend aus der Gewinnung von Navigationswinkeln und Rohla­ ge des Satelliten, der Abschätzung und Filterung von Parametern der Bewegung und der Umlaufbahn des Satelliten wie beispielsweise Keplerscher Umlaufbahn­ parameter, und der Korrektur der Rohlage zur RPY-Lage und
einer Schnittstelle für die Interaktion mit der Hauptbordrecheneinheit des Satelli­ ten.
3. Apparatus for determining the position and attitude of a satellite using image motion information consisting of
an image capture device for taking surface images at defined time intervals,
a high-speed processing unit for driving an image capture apparatus and performing image motion tracking, consisting of buffering image data, extracting and storing image blocks, performing correlation analysis of image blocks, and calculating position vectors of the image blocks,
a digital data processing device for performing a Bildbewe analysis, consisting of the acquisition of navigation angles and Rohla ge of the satellite, the estimation and filtering of parameters of the movement and the orbit of the satellite such as Keplerian orbit parameters, and the correction of the raw layer to the RPY position and
an interface for interaction with the main board unit of the satellite.
4. Vorrichtung nach Anspruch 3, dadurch gekennzeichnet, daß sie aus
einem Bilderfassungsgerät, das das Licht von der beobachteten Oberfläche auf mindestens ein lichtempfindliches Element projiziert,
einem Vollbildbuffer, der das Vollbild zwischenspeichert,
einer ersten Recheneinheit, die alle notwendigen Datenverarbeitungs- und - aktualisierungsoperationen zur Bildbewegungsverfolgung durchführt und einen 2D-Korrelator und das Bilderfassungsgerät steuert,
einem 2D-Korrelator, der die Berechnung der 2D-Korrelationsfunktion über­ nimmt und die Verschiebung von Bildblöcken ermittelt,
einem Referenztimer, der die Referenzzeitmarke erzeugt,
einer zweiten Recheneinheit, die die Bildbewegungsanalyse übernimmt,
einer dritten Recheneinheit, die die Umlaufbahnparameter und RPY-Lage ermit­ telt,
einem REVV (Reihe Einzelner VerfolgungsVorgänge)-Speicher, der die Daten von laufenden einzelnen Verfolgungsvorgängen speichert und
einer externen Schnittstelle, die die Vorrichtung mit der Hauptbordrecheneinheit verbindet, besteht.
4. Apparatus according to claim 3, characterized in that they are made
an image capture device which projects the light from the observed surface onto at least one photosensitive element,
a frame buffer that caches the frame,
a first arithmetic unit performing all the necessary image motion tracking data processing and updating operations and controlling a 2D correlator and the image acquisition device,
a 2D correlator, which takes over the calculation of the 2D correlation function and determines the displacement of image blocks,
a reference timer that generates the reference time stamp,
a second arithmetic unit that performs the image motion analysis,
a third arithmetic unit, which determines the orbit parameters and RPY position,
a REVV (Series of Single Trace Operations) memory which stores the data from ongoing individual tracking operations and
an external interface connecting the device to the main board unit.
5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, daß
die erste Recheneinheit von dem Referenztimer synchronisiert wird und die Ex­ trapolation der Bildblöcke aufgrund der Daten über die Position und Lage des Sa­ telliten durchführt,
wobei die dritte Recheneinheit diese Daten als entsprechend überarbeitete Ergeb­ nisse der Umlaufbahnschätzung liefert oder diese als externe Daten von der exter­ nen Schnittstelle bezogen werden,
wobei die erste Recheneinheit den Inhalt des Speichers der untersuchten Reihe Einzelner VerfolgungsVorgänge (REVV) aktualisiert und neue Tupel erstellt, wenn notwendig,
wobei die Vollbilddaten aus dem Vollbildbuffer ausgelesen werden,
wobei die in der REVV gespeicherten Referenz- und aus dem Vollbildbuffer aus­ gelesenen aktuellen Bildblöcke paarweise in den 2D-Korrelator weitergeleitet werden,
wobei der 2D-Korrelator für jedes Paar den Verschiebungswert zurückgibt, den die erste Recheneinheit für die Aktualisierung der Daten in der REVV benutzt,
wobei das Bilderfassungsgerät von der ersten Recheneinheit so gesteuert wird, daß die Bildaufnahme zu bestimmten Zeitpunkten erfolgt,
wobei die Belichtungszeit von der Recheneinheit 1 bestimmt wird, um die Schärfe der Bilder zu gewährleisten,
wobei das Vollbild im Vollbildbuffer abgespeichert wird,
wobei die Aufnahmezeitpunkte in die entsprechenden Felder in den Tupel der REVV eingetragen werden,
wobei der REVV-Speicher die REVV enthält,
wobei die erste Recheneinheit die nicht nutzbaren und alten Tupel in der REVV löscht,
wobei die zweite Recheneinheit auf den REVV-Speicher zugreift und diesen stän­ dig auf die beendeten Tupel mit fertigen Messungen der Bildbewegung über­ wacht,
wobei die Recheneinheit 2 die Navigationswinkel und Rohlage ermittelt, falls es Tupel mit fertigen Messungen der Bildbewegung gibt, wozu die Daten über die Position und Lage des Satelliten benutzt werden,
wobei die ermittelten Werte in der REVV wieder abgespeichert werden,
wobei die dritte Recheneinheit die Umlaufbahnparameter schätzt und die Rohlage korrigiert, was bei den Tupeln mit fertigen Werten von Navigationswinkeln er­ folgt,
wobei die Ergebnisse der Schätzung bei Bedarf durch die externe Schnittstelle an die Hauptbordrecheneinheit des Satelliten übertragen werden können.
5. Apparatus according to claim 4, characterized in that
the first arithmetic unit is synchronized by the reference timer and carries out the extraction of the image blocks on the basis of the position and position of the satellite,
wherein the third arithmetic unit supplies these data as correspondingly revised results of the orbit estimation or these are obtained as external data from the external interface,
wherein the first arithmetic unit updates the contents of the memory of the examined series of individual tracking operations (REVV) and creates new tuples, if necessary
wherein the frame data is read from the frame buffer,
wherein the reference blocks stored in the REVV and read from the frame buffer are forwarded in pairs to the 2D correlator,
wherein, for each pair, the 2D correlator returns the shift value that the first arithmetic unit uses to update the data in the REVV,
wherein the image acquisition device is controlled by the first arithmetic unit so that the image acquisition takes place at certain times,
wherein the exposure time is determined by the arithmetic unit 1 in order to ensure the sharpness of the images,
wherein the frame is stored in the frame buffer,
where the recording times are entered in the corresponding fields in the tuple of the REVV,
wherein the REVV memory contains the REVV,
wherein the first processing unit deletes the unusable and old tuples in the REVV,
wherein the second processing unit accesses the REVV memory and constantly monitors it for finished tuples with finished measurements of the image movement,
wherein the arithmetic unit 2 determines the navigation angle and the raw sheet, if there are tuples with finished measurements of the image motion, using the data about the position and attitude of the satellite,
whereby the determined values are stored again in the REVV,
wherein the third arithmetic unit estimates the orbital parameters and corrects the rouleaux, which follows for the tuples with finished values of navigation angles,
wherein the results of the estimation can be transmitted, as needed, through the external interface to the main board unit of the satellite.
6. Vorrichtung nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, daß das Bilderfassungsgerät eine Kamera mit mindestens einem Matrixsensor in der Bildebene ist.6. Device according to one of claims 4 or 5, characterized in that the image capture device a camera with at least one matrix sensor in the Image plane is. 7. Vorrichtung nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, daß das Bilderfassungsgerät eine Kamera mit einer Mehrzahl von Linearsensoren in der Bildebene ist.7. Device according to one of claims 4 or 5, characterized in that the image capture device includes a camera having a plurality of linear sensors in the picture plane is. 8. Vorrichtung nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, daß das Bilderfassungsgerät speziell gestaltete Linsen zur Kompensation von Bildver­ zerrungen aufgrund der Krümmung der Planetenoberfläche enthält. 8. Device according to one of claims 4 to 7, characterized in that The image acquisition device specially designed lenses to compensate for Bildver contains distortions due to the curvature of the planetary surface.   9. Vorrichtung nach einem der Ansprüche 4 bis 8, dadurch gekennzeichnet, daß die Hochgeschwindigkeits-Verarbeitungseinheit zur Durchführung der Korrelati­ onsanalyse einen Optischen Korrelator enthält.9. Device according to one of claims 4 to 8, characterized in that the high-speed processing unit for performing the correlations analysis contains an optical correlator. 10. Vorrichtung nach einem der Ansprüche 4 bis 9, dadurch gekennzeichnet, daß Funktionen der Datenverarbeitungsanlage durch vorhandene Ressourcen der Hauptbordrecheneinheit des Fluggeräts ausgeführt werden.10. Device according to one of claims 4 to 9, characterized in that Functions of the data processing system through existing resources of Main board unit of the aircraft are running.
DE2001127399 2001-05-31 2001-05-31 Method and device for the autonomous navigation of satellites Withdrawn DE10127399A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE2001127399 DE10127399A1 (en) 2001-05-31 2001-05-31 Method and device for the autonomous navigation of satellites
DE10292353T DE10292353B4 (en) 2001-05-31 2002-05-31 Device for the autonomous navigation of satellites
PCT/DE2002/002037 WO2002097371A1 (en) 2001-05-31 2002-05-31 Method and device for the autonomous navigation of satellites

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2001127399 DE10127399A1 (en) 2001-05-31 2001-05-31 Method and device for the autonomous navigation of satellites

Publications (1)

Publication Number Publication Date
DE10127399A1 true DE10127399A1 (en) 2002-12-12

Family

ID=7687338

Family Applications (2)

Application Number Title Priority Date Filing Date
DE2001127399 Withdrawn DE10127399A1 (en) 2001-05-31 2001-05-31 Method and device for the autonomous navigation of satellites
DE10292353T Expired - Fee Related DE10292353B4 (en) 2001-05-31 2002-05-31 Device for the autonomous navigation of satellites

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE10292353T Expired - Fee Related DE10292353B4 (en) 2001-05-31 2002-05-31 Device for the autonomous navigation of satellites

Country Status (2)

Country Link
DE (2) DE10127399A1 (en)
WO (1) WO2002097371A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006050850A1 (en) * 2006-10-27 2008-04-30 Locanis Technologies Gmbh Method and device for measuring distance
CN106643741A (en) * 2016-12-12 2017-05-10 东南大学 Autonomous navigation method for satellite relative to asteroid vision
CN106643742A (en) * 2016-12-12 2017-05-10 东南大学 Satellite-based automated successive asteroid observation method
US20220017239A1 (en) * 2020-07-17 2022-01-20 The Aerospace Corporation Methods and systems for orbit estimation of a satellite

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103438890B (en) * 2013-09-05 2015-10-28 北京理工大学 Based on the planetary power descending branch air navigation aid of TDS and image measurement
CN103954287B (en) * 2014-03-31 2016-08-17 北京控制工程研究所 A kind of roadmap planning method of survey of deep space independent navigation
CN104729510B (en) * 2014-12-25 2017-07-28 北京理工大学 A kind of extraterrestrial target determines method with respect to accompanying flying track
WO2020223974A1 (en) * 2019-05-09 2020-11-12 珊口(深圳)智能科技有限公司 Method for updating map and mobile robot
CN111121787B (en) * 2019-12-06 2022-01-11 上海航天控制技术研究所 Autonomous initial orbit determination method based on remote sensing image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3366960A (en) * 1966-11-01 1968-01-30 Gen Precision Systems Inc Microwave radiometric navigation system
US4495589A (en) * 1982-09-20 1985-01-22 Crane Co. Aircraft ground velocity determination system
US4671650A (en) * 1982-09-20 1987-06-09 Crane Co. (Hydro-Aire Division) Apparatus and method for determining aircraft position and velocity
US5104217A (en) * 1986-03-17 1992-04-14 Geospectra Corporation System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006050850A1 (en) * 2006-10-27 2008-04-30 Locanis Technologies Gmbh Method and device for measuring distance
DE102006050850B4 (en) * 2006-10-27 2009-01-02 Locanis Ag Method and device for measuring distance
CN106643741A (en) * 2016-12-12 2017-05-10 东南大学 Autonomous navigation method for satellite relative to asteroid vision
CN106643742A (en) * 2016-12-12 2017-05-10 东南大学 Satellite-based automated successive asteroid observation method
CN106643741B (en) * 2016-12-12 2020-05-19 东南大学 Satellite relative minor planet vision autonomous navigation method
CN106643742B (en) * 2016-12-12 2020-05-19 东南大学 Method for automatically and continuously observing small planets by satellite
US20220017239A1 (en) * 2020-07-17 2022-01-20 The Aerospace Corporation Methods and systems for orbit estimation of a satellite

Also Published As

Publication number Publication date
DE10292353D2 (en) 2004-04-29
WO2002097371A1 (en) 2002-12-05
DE10292353B4 (en) 2009-06-04

Similar Documents

Publication Publication Date Title
EP2241896B1 (en) Stabilising system for missiles
DE60306301T2 (en) Method and device for detecting, geolocating and measuring obliquely recorded images
DE19737592A1 (en) Position determination system for determining position of artificial satellites
EP2916106B1 (en) Method for determining position and attitude by means of virtual reference images
DE60313319T2 (en) AIR EDUCATION SYSTEM
DE69925057T2 (en) Device for measuring the height of a missile
DE102020122748B3 (en) Method, device and computer program product for determining the attitude of a spacecraft in space
DE102017205647A1 (en) METHOD FOR DETERMINING A PATH ALONG AN OBJECT, SYSTEM AND METHOD FOR AUTOMATIC INSPECTION OF AN OBJECT
DE10228639A1 (en) Long term inertial navigation method for vehicle in which two inertial navigation units are used with resulting state vectors combined to yield instantaneous vector value
EP1673589A1 (en) Method and device for determining the actual position of a geodetic instrument
DE102019207087A1 (en) Localization of a mobile unit
DE69829091T2 (en) measuring device
DE10292353B4 (en) Device for the autonomous navigation of satellites
US20200210676A1 (en) Compact interval sweeping imaging system and method
DE19950247A1 (en) Regulation and procedure for Sstellites
CN105139406A (en) Tracking accuracy inversion method based on sequence images
DE4416557A1 (en) Method and device for supporting the inertial navigation of a missile autonomously controlling a distant target
EP3867796A1 (en) Method and device for determining an area map
EP3584536A1 (en) Terrestrial observation apparatus with pose determining functionality
CN108681985B (en) Stripe splicing method of video satellite images
EP0474105B1 (en) Inertial navigation system with a compensation filter for its alignment during flight
DE102021121363A1 (en) Navigation device and positioning method
EP3556088B1 (en) Method and device for determining intersections between two overlapping images of a surface
DE112020001559T5 (en) INFORMATION PROCESSING EQUIPMENT, PROGRAM AND INFORMATION PROCESSING METHOD
EP1418401A1 (en) Method and device for airborne or spaceborne photogrammetry

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8143 Withdrawn due to claiming internal priority