AT511460A4 - Verfahren zur bestimmung der position eines luftfahrzeugs - Google Patents

Verfahren zur bestimmung der position eines luftfahrzeugs Download PDF

Info

Publication number
AT511460A4
AT511460A4 ATA1788/2011A AT17882011A AT511460A4 AT 511460 A4 AT511460 A4 AT 511460A4 AT 17882011 A AT17882011 A AT 17882011A AT 511460 A4 AT511460 A4 AT 511460A4
Authority
AT
Austria
Prior art keywords
aircraft
image
comparison
camera
estimation
Prior art date
Application number
ATA1788/2011A
Other languages
English (en)
Other versions
AT511460B1 (de
Original Assignee
Ait Austrian Inst Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ait Austrian Inst Technology filed Critical Ait Austrian Inst Technology
Priority to ATA1788/2011A priority Critical patent/AT511460B1/de
Application granted granted Critical
Publication of AT511460A4 publication Critical patent/AT511460A4/de
Publication of AT511460B1 publication Critical patent/AT511460B1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bestimmung der Position und Lage eines Luftfahrzeugs (1), insbesondere Flugzeugs (1), innerhalb eines vorgegebenen geographischen Bereichs, ausgehend von einer mittels Schätzung, insbesondere mittels GPS Ortung, Neigungsmessung und Kompass, vorgegebenen Schätzposition und Schätzlage des Flugzeugs (1),a) wobei mit einer im Flugzeug (1) befindlichen Kamera (2) zumindest ein Kamerabild (10) des unterhalb des Flugzeug (1) befindlichen Bodens aufgenommen wird,b) wobei in einer Datenbank (6) georeferenzierte orthonormalisierte Referenzbilder (12) des geographischen Bereichs zur Verfügung gestellt werden wobei die Pixel der Referenzbilder (12) jeweils Höheninformationen aufweisen, die die geographische Höhe der auf die Pixel abgebildeten Bereiche angeben,c) wobei ein Vergleichsbild (11) erstellt wird, indem aus den in der Datenbank (6) abgespeicherten Referenzbildern (12) unter Berücksichtigung der ihren Pixeln zugeordneten Höheninformation dreidimensionaleObjekte einer Szene (13) erstellt werden, und wobei mittels eines Rendering-Algorithmus basierend auf der Szene (13) sowie der Schätzposition und der Schätzlage des Flugzeugs (1) die Vergleichsbilder (11) erstellt werden,d) wobei das Vergleichsbild (11) mit dem Kamerabild (10) verglichen werden, und abhängig von diesem Vergleich eine neue Schätzposition und eine neue Schätzlage ermittelt wird, e) wobei die Schritte c) und d) so lange wiederholt werden und die Schätzposition und Schätzlage so lange abgeändert wird, bis der Vergleich in Schritt d) eine hinreichende Übereinstimmung des Vergleichsbilds (11) mit dem Kamerabild (10) ergibt, und die letzte Schätzposition und Schätzlage als Position und Lage des Luftfahrzeugs (1) angesehen werden.

Description

02^12/2011 12:51 UILDHftCK JELLINEK * 53424535 NUMS90 504 • ·* * • f* · * · i. 4 · » · · · · ··
Die Erfindung betrifft ein Verfahren zur Bestimmung der Position und Lage eines Luftfahrzeugs, insbesondere eines Flugzeugs gemäß dem unabhängigen Patentanspruch 1. Weiters betrifft die Erfindung eine Positions* und Lagebestimmungseinheit für ein Luftfahrzeug, gemäß dem unabhängigen Patentanspruch 5.
Die Erfindung wird vorteilhafterweise gewerblich im Gebiet der Luftfahrt sowie beim Betrieb unbemannter Luftfahrzeuge eingesetzt. Weiters kann mit der Erfindung ein Pilotenassistenzsystem erstellt werden, welches den Piloten insbesondere beim Landeanflug unterstützt, die Landebahn zu finden und das Flugzeug sicher auf die Landebahn zu bringen. Hierdurch können Fehler und Unfälle vermieden werden. Weiters kann das erfindungsgemäße Positions- und Lagebestimmungsverfahren insgesamt für ein Pilotenassistanzsystem verwendet werden, womit ein verbessertes Autopilotensystem sowohl für bemannte als auch für autonom operierende unbemannte Luftfahrzeuge ermöglicht wird.
Aus dem Stand der Technik ist eine Vielzahl von Lokalisierungsmechanismen für unbemannte Flugzeuge mit der Unterstützung von Videobildgebung bekannt. Diese bekannten Verfahren weisen grundsätzlich einen Verfahrensschritt auf, bei dem eine Kamera im Luftfahrzeug positioniert wird und Bilder des Erdbodens unterhalb des Flugzeugs aufgenommen werden. Weiters sind einige Verfahren bekannt bei denen visuelle Informationen und Informationen, die mittels Satellitennavigation ermittelt worden sind, kombiniert werden, und auf diese Art und Weise eine höhere Präzision der ermittelten Positionsdaten möglich ist.
Aufgabe der Erfindung ist es, ein Verfahren zur Bestimmung der Position und Lage eines Luftfahrzeugs sowie ein Luftfahrzeug, das seine Position und Lage ermittelt, zur Verfügung zu stellen, wobei die Bestimmung der Position und Lage des Luftfahrzeugs im Wesentlichen aufgrund einer im Luftfahrzeug mitgeführten Kamera erfolgen soll.
Die Erfindung löst diese Aufgabe mit einem Verfahren mit den Merkmalen des Patentanspruchs 1. Die Erfindung betrifft ein Verfahren zur Bestimmung der Position und Lage eines Luftfahrzeugs, insbesondere Flugzeugs, innerhalb eines vorgegebenen geographischen Bereichs, ausgehend von einer mittels Schätzung, insbesondere mittels GPS Ortung, Neigungsmessung und Kompass, vorgegebenen Schätzposition und Schätzlage des Flugzeugs. Es ist vorgesehen, dass mit einer im Flugzeug befindlichen Kamera zumindest ein Kamerabild des unterhalb des Flugzeug befindlichen Bodens 02/12/2011 12:54
Nr. : R864 P.004/026 02/12/2011 12:51 UJILDHQCK JELL1NEK -» 53424535 NUM890 005 aufgenommen wird, ln einer Datenbank werden georeferenzierte orthonormaliaierte Referenzbilder des geographischen Bereichs zur Verfügung gestellt, wobei zusätzlich zu Luftaufnahmen noch Referenzbilder jeweils Höheninformationen aufweisen, welche die geographische Höhe der zugehörig abgebildeten Bereiche angeben. Es wird ein Vergleichsbild erstellt, indem aus den in der Datenbank abgespeicherten Referenzbiidern unter Berücksichtigung der ihren Pixeln zugeordneten Höheninformation dreidimensionale Objekte einer Szene erstellt werden, und wobei mittels eines Rendering-Algorithmus basierend auf der Szene sowie der Schätzposition und der Schätzlage des Luftfahrzeugs die Vergleichsbilder erstellt werden. Das Vergleichsbild wird mit dem Kamerabild verglichen werden, und abhängig von diesem Vergleich eine neue Schätzposition und eine neue Schätzlage ermittelt. Die Schritte der Erstellung des Vergleichsbilds und der Neuschätzung der Position und Lage des Luftfahrzeugs werden so lange wiederholt und die Schätzposition und Schätzlage wird so lange abgeändert, bis der Vergleich eine hinreichende Übereinstimmung des Vergleichsbilds mit dem Kamerabild ergibt, und die letzte Schätzposition und Schätzlage als Position und Lage des Luftfahrzeugs angesehen werden kann,
Das erfindungsgemäße Verfahren bietet den besonderen Vorteil, dass auf Grundlage einer relativ groben Schätzung zu jedem Zeitpunkt die genaue Position und Lage des Luftfahrzeugs ermittelt werden kann. Im Flugzeug selbst wird lediglich eine Kamera sowie eine Datenverarbeitungseinheit mit einer Datenbank benötigt. Das erfindungsgemäße Verfahren kann mit relativ geringem Ressourcenaufwand in Echtzeit betrieben werden und liefert bei herkömmlicher Rechenleistung etwa 10 Positions- und Lagebestimmungen pro Sekunde.
Um einen besonders vorteilhaften Abgleich von Kamerabildem mit Vergleichsbildern zu erzielen, kann vorgesehen sein, dass bet der Prüfung der Übereinstimmung des Kamerabilds mit dem jeweiligen Vergleichsbild nach Paaren von korrespondierenden Punkten gesucht wird, von denen jeweils einer in dem Kamerabild und der jeweils andere im Vergleichsbild liegt, wobei beide Punkte jeweils gleiche Merkmale aufweisen, und dass die korrespondierenden Punkte miteinander verglichen werden und ein Richtungsvektor zwischen den korrespondierenden Punkten angegeben wird, ausgehend von den vorliegenden Richtungsvektoren und den jeweils zugeordneten Punkten im Vergleichsbild oder Kamerabild durch Interpolation ein Vektorfeld erstellt wird und dass das Vektorfeld zur Neubestimmung der Schätzposition und Schätzlage herangezogen wird. 02/12/2011 12:54
Nr, : R864 P.005/026
02/12/2011 12:51 WILDHACK TELLINEK -> 53424535 NUM890 D0S « · · · 3i.
Zum selben Zweck kann zusätzlich oder alternativ vorgesehen sein, dass bei der Prüfung der Korrespondenz zwischen je einem Pixel des Kamerabilds und einem Pixel des Vergleichsbilds die einzelnen Punkte und/oder die Bildumgebungen dieser Pixel auf Übereinstimmung untersucht werden und ein Obereinstimmungsmaß ermittelt wird, wobei eine Korrespondenz als erkannt gilt, wenn das Übereinstimmungsmaß einen vorgegebenen Schwellenwert übersteigt.
Um die Detektion von zufälligen Übereinstimmungen zu vermeiden, kann vorgesehen sein, dass auf den in der Datenbank abgespeicherten Referenzbildern bestimmte Pixel mit Annotationen versehen sind und das Übereinstimmungsmaß erhöht oder stärker gewichtet wird, wenn die geänderte Abbildung eines mit einer Annotation versehenen Pixel im Vergleichsbild mit dem korrespondierenden Punkt im Kamerabild übereinstimmt.
Um wahrend des Flugs des Luftfahrzeugs ein rascheres AufFinden der Position und Lage des Luftfahrzeugs zu erreichen, kann vorgesehen sein, dass eine Vielzahl von Kamerabildern in vorgegebenen Zeitabständen hintereinander aufgenommen werden, wobei die ermittelte Position und Lage des Luftfahrzeugs zum Zeitpunkt der Aufnahme eines Kamerabilds als Schätzposition und Schätzlage des jeweils nächsten Kamerabilds herangezogen werden.
Um die Schätzposition und Schätzlage weiter zu verbessern, kann vorgesehen sein, dass die Geschwindigkeit und Flugrichtung des Flugobjekts, ermittelt wird und die Schätzposition und Schätzlage gegenüber der Position und Lage des Luftfahrzeugs der unmittelbar vorangehenden Aufnahme um einen Vektor versetzt wird, dessen Länge dem seit der letzten Aufnahme mit der ermittelten Geschwindigkeit 2urückgelegten Weg entspricht und dessen Richtung mit der Flugrichtung des Luftfahrzeugs übereinstimmt.
Weites betrifft die Erfindung eine Positions- und Lagebestimmungseinheit zur Bestimmung von Position und Lage eines Luftfahrzeugs, innerhalb eines vorgegebenen geographischen Bereichs, ausgehend von einer mittels Schätzung, insbesondere mittels GPS Ortung, Neigungsmessung und Kompess, vorgegebenen Schätzposition und Schätzlage des Luftfahrzeugs, umfassend a) eine Kamera zur Erstellung eines Kamerabilds, b) einer Datenbank, in der georeferenzierte orthonormalisierte Referenzbilder des geographischen Bereichs abgespeichert sind, wobei die Pixel der Referenzbilder jeweils 02/12/2011 12:54
Nr.: R864 P.006/026 02/12/2011 12:51 ÜILDHftCK JELLINEK + 53424535 NUM890 00? Höheninformationen aufweisen, die die geographische Höhe der auf die Pixel abgebildeten Bereiche angeben, c) einer Rendering-Einheit, die aus den in der Datenbank abgespeicherten Referenzbildern unter Berücksichtigung der ihren Pixeln zugeordneten Höheninformation dreidimensionale Objekte einer Szene erstellt, und die mittels eines Rendering-Algorithmus basierend auf der Szene sowie der Schätzposition und der Schätzlage des Flugzeugs die Vergleichsbilder erstellt, d) einer Vergleichseinheit, die das Vergleichsbild mit dem Kamerabild vergleicht, und abhängig von diesem Vergleich eine neue Schätzposition und eine neue Schätzlage ermittelt, e) einer Steuereinheit zur iterativen Ansteuerung der Rendering-Einheit und der Vergleichseinheit, die die Rendering-Einheit zur Erstellung eines Vergleichsbilds ansteuert und dieses an die Positionsbestimmung zur Ermittlung einer neuen Schätzposition und eine neue Schätzlage weiterleitet und die so ermittelte Position wiederum der Rendering-Einheit zuführt, so lange, bis eine hinreichende Übereinstimmung des Vergleichsbilds mit dem Kamerabild besteht, wobei die letzte Schätzposition und Schätzlage als Position und Lage des Luftfahrzeugs am Ausgang der Positions- und Lagebestimmungseinheit anliegen.
Die erfindungsgemäße Positions- und Lagebestimmungseinheit bietet den besonderen Vorteil, dass auf Grundlage einer relativ groben Schätzung zu jedem Zeitpunkt die Position und Lage des Luftfahrzeugs ermittelt werden kann, im Flugzeug selbst sind lediglich eine Kamera sowie eine Datenverarbeitungseinheit mit einer Datenbank benötigt. Das erfindungsgemäße Verfahren kann mit relativ geringem Ressourcenaufwand in Echtzeit betrieben werden und liefert bei herkömmlicher Rechenleistung etwa 10 Positions- und Lagebestimmungen pro Sekunde.
Um während des Flugs des Luftfahrzeugs ein rascheres Auffinden der Position und Lage des Luftfahrzeugs zu erreichen, kann vorgesehen sein, dass die Kamera zur Aufnahme einer Vielzahl von Kamerabildern in vorgegebenen Zeitabständen hintereinander ausgebildet ist. wobei die Steuereinheit der Vergleichseinheit und der Rendering-Einheit die ermittelte Position und Lage des Luftfahrzeugs zum Zeitpunkt der Aufnahme eines Kamerabilds als Schätzposition und Schätzlage des jeweils nächsten Kamerabilds vorgibt.
Um die Schätzposition und Schätzlage weiter zu verbessern, kann vorgesehen sein, dass der Steuereinheit die Geschwindigkeit und Flugrichtung des Flugzeugs zugeführt sind, und die Steuereinheit der Vergleichseinheit und der Rendering-Einheit die 02/12/2011 12:55
Nr.: R864 P.007/026 02/12/2011 12:51 UIILDHACK JELLINEK ·* 53424535 NUM890 008 I ,1 <·>· · ·· . . .. . · » *· * * ....., : ******** *« Ai · * * · * * *******
Schätzposition und Schätzlage gegenüber der Position und Lage des Luftfahrzeugs der unmittelbar vorangehenden Aufnahme um einen Vektor versetzt zuführt, dessen Länge dem seit der letzten Aufnahme mit der ermittelten Geschwindigkeit zurückgelegten Weg entspricht und dessen Richtung mit der Flugrichtung des Flugobjekts übereinstimmt.
Weiters betrifft die Erfindung ein Luftfahrzeug mit einer erfindungsgemäßen Positions- und Lagebestimmungseinheit, wobei die Kamera im Luftfahrzeug derart angeordnet ist, dass sie nach außen freie Sicht hat, wobei die Kamera insbesondere auf ein Außenfenster des Luftfahrzeugs gerichtet ist. Durch diese Maßnahme wird sichergestellt, dass der Boden unterhalb des Luftfahrzeugs für die Kamera sichtbar ist.
Um einen möglichst großen Bereich des Bodens für die Kamera sichtbar zu machen und gleichzeitig eine besonders vorteilhafte Ermittlung der Lage und Position des Luftfahrzeugs zu erreichen, kann vorgesehen sein, dass die Kamera derart angeordnet ist, dass sie im Flugbetrieb bei Geradeausflug des Luftfahrzeugs in einem Winkel von 10* bis 50* von einer waagrechten Position nach unten gerichtet ist.
Im Folgenden wird ein Ausführungsbeispiel der Erfindung anhand der beiliegenden Zeichnungen detailliert dargestellt.
Fig. 1 zeigtein Luftfahrzeug, welches mit einer erfindungsgemäßen Positions- und Lagebestimmungseinheit ausgestattet ist. Fig. 2 zeigt schematisch die Verschaltung des Ausführungsbeispiels der Positions- und Lagebestimmungseinheit. Fig. 3 zeigt ein Referenzbiid, dessen Oberfläche mit Farbinformationen versehen ist sowie eine aus dem Referenzbild erstellte dreidimensionale Szene. Fig. 4 zeigt den Vergleich zwischen einem Kamerabild und einem Vergleichsbild sowie korrespondierende Pixel in den beiden Bildern. Fig. 5 zeigt die beiden Bilder sowie die markanten Pixel übereinander dargestellt. Fig. 6 zeigt schematisch ein Vektorfeld, das durch den Vergleich der in Fig. 4 dargestellten Bilder gebildet worden ist.
Fig. 1 zeigt ein Luftfahrzeug 1, das mit einer erfindungsgemäßen Positions- und Lagebestimmungseinheit 2 ausgestattet ist. Im Flugzeug 1 ist eine Kamera 3 angeordnet. Die Kamera 3 ist im vorliegenden Fall derart angeordnet, dass sie im Flugbetrieb, bei Geradeausflug des Flugzeugs in einem Winkel von 10 bis 50* von einer waagrechten Position aus gesehen nach unten gerichtet ist. Im vorliegenden Fall ist die Kamera 3 zentral im vorderen Bereich des Luftfahrzeugs 1 angeordnet und in Flugrichtung des Luftfahrzeugs 1 gerichtet. Im vorderen Bereich des Luftfahrzeugs 1 ist ein durchsichtiges 02/12/2011 12:55
Nr.: R864 P.008/026 02/12/2011 12:51 UILDHftCK JELLINEK -» 53424535 NUM890 009
Ä.
Außenfenster S vorgesehen, die unmittelbar vor der Kamera 2 angeordnet ist, um die Kamera vor äußeren Einwirkungen wie Wind, Hitze, Kälte und Feuchtigkeit zu schützen
Die Kamera 3 nimmt in vorgegebenen Zeitabständen jeweils einzelne Kamerabilder 10 auf und liefert diese an eine der Positions- und Lagebestimmungseinheit 2 zugehörige Vergleichseinheit 4, die das jeweilige aufgenommene Kamerabild 10 mit einem Vergleichsbild 11 vergleicht. Das Kamerabild 10 wird in dieser bevorzugten Ausführungsform im Zuge einer ßildvorverarbeitung entzerrt, sodass allfällige Linsenfehler möglichst entfernt werden. In einem weiteren Schritt können vorab einige Merkmale wie Kanteninformationen usw. ermittelt werden. Eine solche Bildvorverarbeitung ist allerdings nicht zwingend erforderlich, eine solche Bildverarbeitung kann selbstverständlich auch entfallen. Im vorliegenden Fall wird eine Bildvorverarbeitungseinheit 14 verwendet, die den Linsenfehler korrigiert
Die Erstellung der Vergleichsbildern 11 wird im Folgenden näher beschrieben. Fig. 2 zeigt schematisch die Verschaltung des AusfDhrungsbeispiels der Positions- und Lagebestimmungseinheit. Die Positions- und Lagebestimmungseinheit 2 weist eine Datenbank 6 auf, in der georeferenziarte orthonormelisierte Referenzbilder 12 des geographischen Bereichs abgespeichert sind. Je nach Größe des benötigten Bereichs und der geforderten Auflösung benötigt die Datenbank Speicherplatz zur Abspeicherung der Referenzbilder 12. Ein Referenzbild 12 zeigt den Bereich oder einen Teil dieses Bereichs von oben, wobei sämtliche durch die Abbildungen entstehenden Abbiidungsverzerrungen aus den Bildern entfernt werden und eine winkelverzerrungsfreie Abbildung des Bereichs zur Verfügung steht. Als Bereich können begrenzte geographische Gebiete gewählt werden, innerhalb derer das erfindungsgemäße Verfahren durchgeführt wird, d. h. innerhalb derer eine Positions- und Lagebestimmung vorgenommen wird.
Das Referenzbild 12 oder eine Vielzahl von Referenzbildern 12 wird In der Datenbank 6 abgespeichert und kann auf Anfrage abgerufen werden. Jedes Pixel des Referenzbilds 12 ist eindeutig einem Punkt auf der Erdoberfläche zuordenbar. Jedem Pixel ist eine Färb- und Helligkeitsinformation zugeordnet. Diese Färb- und Helligkeitsinformation wird bei der Erstellung des Referenzbilds 12 ermittelt und entspricht der bei der Aufnahme des Referenzbilds vorherrschenden Farbe und Helligkeit des aufgenommenen Gebiets. Zudem ist jedem Pixel des Referenzbilds 12 jeweils eine Höheninformation zugeordnet, die angibt, wie weit der jeweilige dem Pixel zugeordnete Punkt von einer Referenzhöhe, entfernt ist. Im vorliegenden Fall wird der häufig von GPS-Empfängem verwendete Standardellipsoid WGS1984 verwendet. 02/12/2011 12:56
Nr.: R864 P.009/026 02/12/2011 12:51 WILDHACK JELLINEK 53424535 NUM890 G>10 7· I • » » * · ·
Die Rendering-Einheit 5 ist zur Erstellung von Vergleichsbildem 11 in Form von virtuellen Luftbildern des jeweiligen Gebiets ausgebildet. Zu diesem Zweck wird der Rendering-Einheit 5 an ihrem Eingang von einer Steuereinheit 7 eine Positions- und Lageinformation zugeführt, die angibt, von welchem Punkt aus und mit welcher Blickrichtung die Rendering-Einheit 5 ein virtuelles Abbild des jeweiligen Gebiets erstellen soll. Die Rendering-Einheit 5 erhält die Referenzbilder 12 mitsamt den Höheninformationen und erstellt auf Grundlage der Referenzbilder 12 eine dreidimensionale Szene. Die dreidimensionale Szene 13 umfasst eine
Oberflächendarstellung des Jeweiligen Gebiets, wobei jedes Pixel des Referenzbilds 12 als Oberflächenpunkt einer dreidimensionalen Szene 13 fungiert.
Fig. 3 zeigt ein Referenzbild 12, dessen Oberfläche mit Farbinformationen versehen ist. Weiters zeigt Fig, 3 eine aus dem Referenzbild 12 erstellte dreidimensionale Szene 13. Die dreidimensionale Szene 13 ist in Bezug auf ein Koordinatensystem definiert, wobei zwei der drei Koordinaten eines jeden Punkts der Szene 13 von der Lage des jeweils zugeordneten Pixels innerhalb des Referenzbilds 12 abhängen und die dritte Koordinate des Punkts, im vorliegenden Fall die Höhe, der zum jeweiligen Pixel gespeicherten Höheninformationen entspricht.
Die Rendering-Einheit 5 erstellt die Szene 13 und ordnet den einzelnen Punkten der Szene 13 jeweils diejenigen Farben zu, die die den Punkten jeweils zugeordneten Pixel des Referenzbilds 12 aufweisen. Die Rendering-Einheit 5 erhält an ihrem Eingang Eingabe einen Schätzwert der aktuellen Position und Lage und erstellt basierend auf der erstellten Szene 13 sowie der Positions- und Lageinformation ein virtuelles dreidimensionales Vergleichsbild 11, das die jeweilige Szene zeigt, wenn sie in der durch die Positions- und Lageinformation angegebenen Position und Lage sichtbar ist.
Dazu werden aus einer Datenbank 6 die für die geschätzte Position und Richtung relevanten Referenzbiider und Höheninformationen geladen. Diese werden herangezogen, um eine perspektivisch korrekte Abbildung zu erzeugen („Rendering"). Diese Ansicht repräsentiert ein virtuelles Kamerabild, Im folgenden als Vergleichsbild 11 bezeichnet, welches eine reale Kamera an der vorher definierten Stelle aufgenommen hätte, wäre Sie zum Zeitpunkt der Aufnahme der Szene 13 hier platziert worden. 02/12/2011 12:56
Nr. : R864 P,010/026 02/12/-2011 12:51 WILDHACK JELLINEK * 53424535 NUM890 (?U ♦ ♦ Λ,
Die Referenzbilder 12 und Höhendaten sind bei dieser bevorzugten Ausführungsform der Erfindung entsprechend der in TMS (Tile Map Service Specification) definierten Ordnerstruktur abgelegt. Alternativ könnten auch andere Formate verwendet werden,
Als Werkzeug zum Renderirg-Engine wird bei dieser bevorzugten Ausführungsform der Erfindung der Terrain Rendering Toolkit "osgEarth" verwendet. TMS oder alternative Formate ermöglichen den Zugriff auf georeferenziertes Kartenmaterial. Alternativ können jedoch selbstverständlich auch andere Rendering-Engines zur Erstellung des Vergleichsbilds 11 von der Rendering-Einheit 5 verwendet werden.
Fig. 4 zeigt den Vergleich zwischen einem Kamerabild 10 und einem Vergleichsbild 11. Der Vergleichseinheit 5 wird einerseits ein Kamerabild 10 und andererseits ein Vergleichsbild 11 zugeführt. Die Vergleichseinheit 4 vergleicht das Kamerabild 10 mit dem Vergleichsbild 11. In dieser bevorzugten Ausführungsform der Erfindung werden Übereinstimmungen des Kamerabilds 10 mit dem jeweiligen Vergleichsbild 11 gesucht.
Hierfür werden in beiden Bildern 10, 11 miteinander korrespondierende Pixel gesucht, d.h. es wird versucht, Paaren 15 von korrespondierenden Pixetn, von denen jeweils einer in dem Kamerabild 10 und der jeweils andere im Vergleichsbild 11 liegt, zu finden, wobei beide Pixel jeweils gleiche Merkmale aufweisen. So können Pixel dann als korrespondierend angesehen werden, wenn sie gemeinsame Features aufweisen oder eine ähnliche Punktumgebung aulweisen. Eine wesentliche Besonderheit hierbei ist, dass die Bilder 10, 11 aus unterschiedlichen Quellen stammen, das erste Bild wurde von der Kamera 3 erstellt, während das Vergleichsbild 11 mitteis von der Rendering-Einheit 5, d.h, künstlich hergestellt worden ist.
Um dies zu erreichen und korrespondierende Pixel in den Bildern 10,11 zu finden, werden für die einzelnen Pixel der beiden Bilder 10, 11 jeweils relevante Bildmerkmalen ermittelt, wobei jeweils ein Vergleich der Bitdmerkmale eines Pixels aus einem der Bilder 10,11 mit den Bildmerkmalen eines Pixels des jeweils anderen der beiden Bilder 10,11 verglichen wird. Um ein Korrespondieren von Bildpaaren aus unterschiedlichen Quellen zu ermöglichen, basieren relevante Bildmerkmale weniger auf lokale Pixelintensität, sondern eher auf dem Vorhandensein von gewissen Strukturen wie z.B. Kanten, Ecken oder andere Struktur-Deskriptoren, so wie z.B. normierte Orientierungshistogramme. Um eine tatsächliche Korrespondenz zwischen einer (Teil-)Menge von Bildmerkmalen her zu stellen, werden einzelne Bildmerkmale direkt verglichen. 02/12/2011 12:56
Nr.: R864 P.011/026 02/12/2011 12:51 WILDHftCK JELLINEK -> 53424535 NUM890 012 * ♦ · * « *«·* * * * * · · i
Im Zuge der Vorverarbeitung in der Vorverarbeitungseinheit werden die Kamerabilder bereits entzerrt, wobei die Entzerrung die durch die Optik der Kamera erstellte Verzerrung ausgleicht. Weiters können im Zuge der Vorbehandlung bestimmte Merkmale der Kamerabilder und der Vergleichsbilder 11 betont werden, die über die Zeit hinweg unverändert bleiben und keinen jahreszeitlichen Schwankungen unterworfen sind, wie etwa der Farbton des Bodens, der abhängig von Jahreszeit, Schneelage usw, stark variieren kann. Bei der Detektion der Kanten kommen gängige Kantenextraktionsverfahren wie Canny in Betracht. Bei der Detektion von Features kommen gängige Featureextraktionsverfahren wie SIFT oder SURF in Betracht.
Alternativ oder zusätzlich kann eine Texturanalyse durchgeführt werden,
Im Kontext der Bildverarbe/tung wird allgemein der Begriff Matching für das Finden von Korrespondenzen verwendet. Bei einem Matching von Features werden, beispielsweise werden SIFT Features oder vektorisierte Bildinformationen als solche miteinander verglichen,
Im konkreten Fall werden bei der Prüfung der Korrespondenz zwischen je einem Pixel des Kamerabilds 10 und einem Pixel des Vergleichsbilds 11 die einzelnen Pixel und/oder Bildumgebungen dieser Pixel auf Übereinstimmung untersucht und es wird ein Übereinstimmungsmaß ermittelt, wobei eine Korrespondenz als erkannt gilt, wenn das Übereinstimmungsmaß einen vorgegebenen Schwellenwert übersteigt.
Bei einer besonderen Weiterbildung der Erfindung sind auf den in der Datenbank 6 abgespeicherten Referenzbildern 12 bestimmte Pixel mit Annotationen versehen, Für diese Pixel werden korrespondierende Pixel gesucht und eine allfällige Übereinstimmung wird stärker gewichtet, wenn die geränderte Abbildung eines mit Annotationen versehenen Pixels im Vergleichsbild 11 mit dem korrespondierenden Pixel im Kamerabild 10 übereinstimmt.
Fig. 5 zeigt die beiden Bilder 10. 11 sowie die markanten Pixel übereinander dargestellt. Für sämtliche Paare von miteinander korrespondierenden Pixeln wird jeweils der Differenzvektor gebildet, d. h. es wird ein Richtungsvektor zwischen den korrespondierenden Punkten ermittelt. Ausgehend von der Verteilung der Richtungsvektoren im Vergleichsbild 11 oder im Kamerabild 10 wird durch Interpolation ein Vektorfeld, dargestellt in Fig. 6, ermittelt und erstellt 02/12/2011 12:57
Nr.: R864 P.012/026 02/12/2011 12s 51 WILDHACK JELLINEK -> 53424535 NUM890 D13
Das Vektorfeld kann auch durch flächenbasiertes Matching erstellt werden, das bestimmte Korrelationsmethoden auf den Pixeln der Bilder anwendet. Das Ergebnis eines Matchingprozesses soll zum einen ein generelles Übereinstimmungsmaß für den Grad der Übereinstimmung, und zum anderen auch Informationen über Ausmaß und Richtung der Abweichungen in verschiedenen Teilen des Bildes sein. . Zur Ermittlung von derartigen Vektorfeldern kann unter anderem das "SIFT-FLOW'-Verfahren verwendet werden, das in "C. Uu, J. Yuen, A. Torralba, J. S/v/c, and W. T. Freeman. SIFT flow: dense correspondence across different scenes. In the European Conference on Computer Vision (ECCV) 2008. Oral presentation, http://people.csail.mit.edu/celiu/ECCV2008/SIFTflow.pdf beschrieben ist.
Wenn die Vektoren in diesem Vektorfeld über das gesamte Bild 10, 11 hinweg gleich null sind, stimmen die Positionen der Pixel sämtlicher Paare markanter Pixel untereinander überein und die Bilder 10, 11 werden in diesem Fall als miteinander vollkommen übereinstimmend betrachtet. Die Schätzposition und Schätzlage stimmen jeweils mit Position und Lage des Luftfahrzeugs überein wenn die Summe der Vektorlängen gleich null ist.
Die Position und Lage der Kamera 3 zum Zeitpunkt der Aufnahme des Kamerabilds 10 wird somit der Position und Lage gleichgesetzt, von der aus das Vergleichsbild erstellt worden ist. Allenfalls kann von der Position und Lage der Kamera 3 durch Koordinatentransformation, insbesondere durch Translation und Rotation die Position und Lage eines anderen im oder am Luftfahrzeug 1 angeordneten Gegenstands ermittelt werden.
Weist das Vektorfeld hingegen Vektoren auf, die ungleich null sind, so unterscheiden sich die einander zugeordneten markanten Punkte voneinander Es wird ein neues Vergleichbild 11 auf Grundlage einer Positionskorrektur oder eine Lagekorrektur erstellt, damit das Vergleichsbild 11 mit dem Kamerabild 10 weiter angenähert wird. Ausgehend vom Vektorfeld wird eine Positrons- und Lagekorrektur vorgenommen, die Rendering-Einheit 5 erstellt basierend auf der neuen Position und Lage ein neues Vergleichsbild 11, das erneut mit dem Kamerabild 10 verglichen wird.
In dieser bevorzugten Ausführungsform der Erfindung wird die Neuschätzung der Position auf Basis des Vektorfeldes der Positionsverschiebungen mittels eines Fehlermodeils erstelJt. Ziel dieses Verfahrens ist es, anhand der korrespondierenden 02/12/2011 12:57
Nr.: R864 P.013/026 02/12/2011 12:51 LIILDHACK JELLINEK 4 53424535 NUfie90 P14 ·* * *· «·* » ·« * ··** · * M · · * * * * · * * Mi 1 * * · · * * # · * * ♦ ** << *·*« I* ··«···«
Stetten in einem Bildpaar, bestehend aus einem Kamerabild und einem künstlich hergesteliten Bild, eine Lageschätzung für die reale Kamera zu errechnen.
Die Neuschätzung der Position und Lage ausgehend von der bisher bekannten Schätzposition und Schätzlage kann, wie im Folgenden dargestellt, vorgenommen werden:
Ausgehend von einer gleichbieibenden Anzahl von Korrespondenzparametern in Form von Vektoren im Vektorfeld ist es möglich, ein Modell für die Änderung der Kameraiage näherungsweise zu erstellen. Ein solches Modell kann etwa unter Verwendung von künstlich hergesteilten, geänderten Bildpaaren, für die Bildpaare die Lageänderung bekannt ist, erstellt werden. Im Zuge der Modellierung werden einzelne künstlich hergestellte Bilder miteinander verglichen, wobei die jeweilige Kameraposition und -läge vorab bekannt ist. Es werden mittels eines Matching-Verfahrens miteinander korrespondierende, denselben virtuellen Punkt abbildende Punkte gesucht, wobei miteinander korrespondierende Punkte zu Punktpaaren zusammengefasst werden. Es wird, wie vorstehend beschrieben ein Vektorfeld (Fig. 6) erstellt, das den Abstand der einzelnen Punkte eines Punktpaars angibt. Anschließend wird das Vektorfeld gemeinsam mit den beiden Kamerapositionen und -lagen einer Modellierung zugeführt, wobei nach einer Modelifunktion gesucht wird, mit der ausgehend von einem Vektorfeld und einer ersten Kameraposition und -läge eine die zweite Kameraposition und -tage gesucht wird. Diese Modellierung kann beispielsweise durch ein multivariates lineares Modell erfolgen, wobei es schließlich möglich ist, ausgehend von einer ersten Kameraposition und dem Vektorfeld auf eine zweite Kameraposition zu schließen. Ein geeignete Modellierung ist z.B. die Lineare Regression, stehe etwa Schmidt, Trenkler: Einführung in die Moderne Matrix-Algebra: Mit Anwendungen in der Statistik, Springer, ISBN 978-3-540-33007-3.
Die Lineare Regression liefert eine Matrix die es erlaubt aus dem Vektorfeld durch Matrix-Multiplikation direkt eine geschätzte Änderung der Position und Lage zu errechnen. Die Lage der virtuellen Kamera kann dann mit Hilfe der geschätzten Änderung der Lage angepasst werden, wobei die Lage nur wenig in der Richtung der geschätzten Lageänderung angepasst wird, um ein instabiles System verhalten zu verhindern. In weiteren Iterationsschritten, wird so abwechselnd die Lageänderung geschätzt und die Lage der virtuellen Kamera angepasst, bis die Lage der virtuelle Kamera einer der realen Kamera möglichst gut angepasst ist. 02/12/2011 12:58
Nr.: R864 P.014/026 02/12/2011 12:51 WILDHACK JELLINEK * 53424535 NUM890 C15
Die Steuerung dieses iterativen Vorgangs wird von einer Steuereinheit 7 (Fig. 2) geleitet. Die Vergleicheinheit 4 gibt die jeweiligen Positions- und Lagekorrektur an ihrem Ausgang an und stellt diese der Steuereinheit 7 zur Verfügung. Die Steuereinheit 7 verändert die Position und Lage innerhalb der Szene 13, von der aus das Vergleichsbild 11 erstellt wird und gibt diese so ermittelten Positions- und Lageinformationen an die Rendering-Einheit 5 weiter, die ein neues Vergleichsbild 11 erstellt.
Soll nun in einem iterativen Vorgang die Position des Luftfahrzeugs 1 für den Zeitpunkt ermittelt werden, zu dem das Kamerabild 10 aufgenommen wurde, wird in einem ersten Schritt eine Schätzposition und -läge angegeben. Diese Schätzposition kann beispielsweise mittels eines GPS-Geräts, die Schätzlage mittels eines Kompasses und eines Neigungsmessers und/oder Kreisels ermittelt werden. Die Schätzposition und -läge braucht nicht sehr präzise sein, vielmehr braucht diese Information nur ausreichend nahe an der tatsächlichen Position des Luftfahrzeugs 1 liegen, dass einige gemeinsame Gegenstandspunkte des Kamerabilds 10 und eines basierend auf der Schätzposition und -läge erstellten Vergleichsbilds 11 sichtbar sind, sodass einige Punktkorrespondenzen auffindbar sind. Mittels des voranstehend beschriebenen Iterativen Algorithmus kann durch inkrementeile Variation der Schätzposition und Schätzlage des Luftfahrzeugs 1 die tatsächliche Position und Lage des Luftfahrzeugs 1 ermittelt werden. Die ermittelte tatsächliche Position und Lage des Luftfahrzeugs 1 liegt am Ausgang der Vergleichseinheit 4 am Ende der Iteration an und steht für Anwendungen innerhalb des Luftfahrzeugs 1 zur Verfügung. Beispielsweise kann mit den zur Verfügung stehenden Position- und Lage Informationen das Funktionieren von positions- und lageanzeigenden Instrumenten überprüft werden, weiters können diese Informationen auch für automatisiert ablaufende Flugmanöver wie z.B. sichtgesteuerte Landung usw. verwendet werden.
Im Folgenden wird eine zweite Ausführungsform der Erfindung dargestellt, die im wesentlichen der ersten dargestellten Ausführungsform entspricht. Es werden insbesondere die Unterschiede zur ersten Ausführungsform der Erfindung dargestellt.
Bei dieser Ausführungsform der Erfindung wird berücksichtigt, dass eine Vielzahl von Aufnahmen in kurzer zeitlicher Abfolge durchgeführt wird, Sei einem typischen Flug hebt das Luftfahrzeug 1 zunächst von einer Landebahn ab und steigt. Während die im Luftfahrzeug 1 angeordnete auf der Landebahn noch einen sehr geringen Teil des Bodens wahmimmt und eine Lokalisierung des Luftfahrzeugs 1 noch nicht möglich ist, wird der von der Kamera 3 erfasste Bereich des Bodens unterhalb des Luftfahrzeugs 1 immer größer, sodass nach einiger Zeit basierend auf den in der Datenbank 6 02/12/2011 12:58
Nr.: R864 P.015/026 02/12/2011 12:51 _ WILDHACK JELL1NEK 4 53424535 NUM890 PI6
abgespeicherten Referenzbildern 12 eine Erkennung von Position und Lage des Luftfahrzeugs 1 erfolgt.
Um eine initiale Position und Lage des Luftfahrzeugs 1 festzustellen, wird das in der ersten Ausführungsform der Erfindung dargestelite Verfahren angewandt. Nachdem die Position und Lage des Luftfahrzeugs 1 detektiert sind, wird das nächste von der Kamera 3 aufgenommene Kamerabild 10 zur Vergleichseinheit 4 übermittelt. Da die Kamerabilder 10 von der Kamera 3 typischenweise in kurz hintereinander folgenden Zeitpunkten aufgenommen werden, ändert sich die Position und die Lage des Luftfahrzeugs 1 zwischen der Aufnahme von zwei Kamerabildern 10 nicht signifikant. Um einen möglichst guten Schätzwert für die Positions- und Lagebestimmung des zweiten Kamerabilds 10 zu erhalten, ist es vorteilhaft, die während des Positions- und Lagebestimmung für das erste Kamerabild 10 ermittelte Position und Lage als Schätzwert heranzuziehen.
Oieser Schätzwert kann dadurch verbessert werden, dass die Schätzposition und -läge des Luftfahrzeugs für die Erstellung des Vergleichsbilds 11 gegenüber der für das unmittelbar vorangehende Kamerabild 10 ermittelten Position und Lage um einen Vektor versetzt wird, dessen Länge dem seit der letzten Aufnahme mit der ermittelten Geschwindigkeit zurückgelegten Weg entspricht und dessen Richtung mit der Flugrichtung des Flugobjekts übereinstimmt.
Man spricht im Zusammenhang mit diesem Vorgehen davon, dass nach einer ersten Detektion des Luftfahrzeugs das System einrastet, wobei die Detektion der Position und Lage des Luftfahrzeugs 1 zu einem nachfolgenden Zeitpunkt mit wesentlich geringerem Aufwand möglich ist.
Wenn eine Übereinstimmung nicht mehr gefunden werden kann, kann das Verfahren gemäß der ersten Ausführungsform der Erfindung wiederholt werden, bis eine Positionsund Lagebestimmung möglich ist. Eine neuerliche Detektion kann wiederum entweder auf Grundlage von ständig ermittelten GPS-Daten oder aber auf Grundlage der zuletzt ermittelten Position und Lage erfolgen.
Eine dritte Ausführungsförm der Erfindung sieht vor, dass auf demselben Luftfahrzeug 1 eine Vielzahl von Kameras 3 angeordnet sind, die von unterschiedlichen Positionen auf dem Luftfahrzeug 1 - bei normaler Fluglage - auf den Boden unterhalb des Luftfahrzeugs 1 gerichtet sind. Hierbei ist jeder Kamera 3 jeweils eine eigene Positions- und 02/12/2011 12:58
Nr.: R864 P.016/026 02/12/2011 12:51 WILDHACK JELLINEK 53424535 NUM890 D17 ·* · * ··*« · * * • · * · · · · « · 4 » * · * · · · « * · f A * ' * * • ·'*· · · * « * · ·«**»*« » i
Lagebestimmungseinheit 2 zugeordnet, die die Position und Lage der jeweiligen Kamera 3 erfasst. Sind die Positionen und Ausrichtung der einzelnen Kameras zueinander bekannt, kann durch Mittelung der einzelnen erzielten Ergebnisse die Position und Lage des gesamten Luftfahrzeugs 1 besser abgeschätzt werden. Wesentlich vorteilhaft ist es in diesem Zusammenhang, ausschließlich diejenigen Kameras 3 für die Mittelung heranzuziehen, mit deren Kamerabildern 10 gültige Positrons- und Lageinformationen ermittelt werden konnten. Ein derartiges System mit mehreren Kameras 3 hat insbesondere den Vorteil, dass eine Positrons- und Lageerkennung auch dann noch möglich ist, wenn etwa ein Teil des Bodens unterhalb des Luftfahrzeugs 1 von Nebel oder Wolken verdeckt ist. 02/12/2011 12:59
Nr. : R864 P,017/026

Claims (9)

  1. 02/12-/2011 12:51 UJILDHACK JELLINEK 4 53424535 NUM890 Die ♦ * · · · * · * * · ·« • ««· « · *« » «. • · · · * « « • · f c · * # * * « * rö» * · * » · ♦ · ··*<·«* * · ··»··*« Patentansprüche: 1, Verfahren zur Bestimmung der Position und Lage eines Luftfahrzeugs (1). insbesondere Flugzeugs (1), innerhalb eines vorgegebenen geographischen Bereichs, ausgehend von einer mittels Schätzung, insbesondere mittels GPS Ortung, Neigungsmessung und Kompess, vorgegebenen Schätzposition und Schätzlage des Flugzeugs (1), a) wobei mit einer im Flugzeug (1) befindlichen Kamera (2) zumindest ein Kamerabild (10) des unterhalb des Flugzeug (1) befindlichen Bodens aufgenommen wird, b) wobei in einer Datenbank (6) georeferenzierte orthonomnalisierte Referenzbilder (12) des geographischen Bereichs zur Verfügung gestellt werden wobei die Pixel der Referenzbilder (12) jeweils Höheninformationen aufweisen, die die geographische Höhe der auf die Pixel abgebildeten Bereiche angeben. c) wobei ein Vergleichsbild (11) erstellt wird, indem aus den in der Datenbank (6) abgespeicherten Referenzbildem (12) unter Berücksichtigung der ihren Pixeln zugeordneten Höheninformation dreidimensionale Objekte einer Szene (13) erstellt werden, und wobei mittels eines Rendering-Algorithmus basierend auf der Szene (13) sowie der Schätzposition und der Schätzlage des Flugzeugs (1) die Vergleichsbilder (11) erstellt werden, d) wobei das Vergleichsbild (11) mit dem Kamerabild (10) verglichen werden, und abhängig von diesem Vergleich eine neue Schätzposition und eine neue Schätzlage ermittelt wird, e) wobei die Schritte c) und d) so lange wiederholt werden und die Schätzposition und Schätzlage so lange abgeändert wird, bis der Vergleich in Schritt d) eine hinreichende Übereinstimmung des Vergleichsbilds (11) mit dem Kamerabild (10) ergibt, und die letzte Schät2position und Schätzlage als Position und Lage des Luftfahrzeugs (1) angesehen werden.
  2. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei der Prüfung der Übereinstimmung des Kamerabilds (10) mit dem jeweiligen Vergleichsbild (11) nach Paaren von korrespondierenden Punkten gesucht wird, von denen jeweils einer in dem Kamerabild (10) und der jeweils andere im Vergleichsbild (11) liegt, wobei beide Punkte jeweils gleiche Merkmale aufweisen, dass die korrespondierenden Punkte miteinander verglichen werden und ein Richtungsvektor zwischen den korrespondierenden Punkten angegeben wird, ausgehend von den vorliegenden Richtungsvektoren und den jeweils zugeordneten Punkten im 02/12/2011 12:59 Nr.: R864 P.018/026 02/12/2011 LJ ILDHACK JELL1NEK » 53424535 12:51 D19 NUM890 Vergleichsbild (11) oder Kamerabild (10) durch Interpolation ein Vektorfeld erstellt wird und dass das Vektorfeld zur Neubestimmung der Schätzposition und Schätzlage herangezogen wird.
  3. 3. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei der Prüfung der Korrespondenz zwischen je einem Pixel des Kamerabilds (10) und einem Pixel des Vergleichsbilds (11) die einzelnen Punkte und/oder die Bildumgebungen dieser Pixel auf Übereinstimmung untersucht werden und ein Übereinstimmungsmall ermittelt wird, wobei eine Korrespondenz als erkannt gilt, wenn das Übereinstimmungsmaß einen vorgegebenen Schwellenwert übersteigt, wobei insbesondere auf den in der Datenbank (6) abgespeicherten Referenzbildern (12) bestimmte Pixel mit Annotationen versehen sind und das Übereinstimmungsmaß erhöht oder stärker gewichtet wird, wenn die gerenderte Abbildung eines mit einer Annotation versehenen Pixel im Vergleichsbild mit dem korrespondierenden Punkt Im Kamerabild (10) übereinstimmt.
  4. 4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine Vielzahl von Kamerablidem (10) in vorgegebenen Zeitabständen hintereinander aufgenommen wird, wobei die ermittelte Position und Lage des Luftfahrzeugs (1) zum Zeitpunkt der Aufnahme eines Kamerabilds (10) als Schatzposition und Schätzlage des jeweils nächsten Kamerabilds (10) herangezogen werden, wobei insbesondere die Geschwindigkeit und Flugrichtung des Flugobjekts, ermittelt wird und die Schätzposition und Schätzlage gegenüber der Position und Lage des Luftfahrzeugs (1) der unmittelbar vorangehenden Aufnahme um einen Vektor versetzt wird, dessen Länge dem seit der letzten Aufnahme mit der ermittelten Geschwindigkeit zurückgelegten Weg entspricht und dessen Richtung mit der Flugrichtung des Luftfahrzeugs (1) übereinstimmt.
  5. 5. Positions- und Lagebestimmungseinheit (2) zur Bestimmung von Position und Lage eines Luftfahrzeugs (1), innerhalb eines vorgegebenen geographischen Bereichs, ausgehend von einer mittels Schätzung, insbesondere mittels GPS Ortung, Neigungsmessung und Kompass, vorgegebenen Schätzposition und Schätzlage des Luftfahrzeugs (1), umfassend a) eine Kamera (3) zur Erstellung eines Kamerabilds (10). b) einer Datenbank (6), in der georeferenzierte orthonormalisierte Referenzbilder (12) des geographischen Bereichs abgespeichert sind, wobei die Pixel der Referenzbilder (12) 02/12/2011 12:59 Nr.: R864 P.019/026 02/12/2011 12:51 WILDHACK JELLINEK + 53424535 NUM890 D20 02/12/2011 12:51 WILDHACK JELLINEK + 53424535 NUM890 D20
    17· «· · « · · « · · · * · jeweils Höheninformationen aufweisen, die die geographische Höhe der auf die Pixel abgebildeten Bereiche angeben, c) einer Rendering-Einheit (5), die aus den in der Datenbank (6) abgespeicherten Referenzbildern (12) unter Berücksichtigung der ihren Pixeln zugeordneten Höheninformation dreidimensionale Objekte einer Szene (13) erstellt, und die mittels eines Rendering-Algorithmus basierend auf der Szene (13) sowie der Schätzposition und der Schätzlage des Flugzeugs die Vergleichsbilder (11) erstellt, d) einer Vergleichseinheit (4), die das Vergleichsbild (11) mit dem Kamerabild (10) vergleicht, und abhängig von diesem Vergleich eine neue Schätzposition und eine neue Schätzlage ermittelt, e) einer Steuereinheit (7) zur iterativen Ansteuerung der Rendering-Einheit (5) und der Vergleichseinheit (4), die die Rendering-Einheit (5) zur Erstellung eines Vergleichsbilds (11) ansteuert und dieses an die Positionsbestimmung zur Ermittlung einer neuen Schätzposition und eine neue Schätzlage weiterleitet und die so ermittelte Position wiederum der Rendering-Einheit (5) zuführt, so lange, bis eine hinreichende Übereinstimmung des Vergleichsbilds (11) mit dem Kamerabild (10) besteht, wobei die letzte Schätzposition und Schätzlage als Position und Lage des Luftfahrzeugs (1) am Ausgang der Positions- und Lagebestimmungseinheit anliegen,
  6. 6. Positions- und Lagebestimmungseinheit (2) nach Anspruch 5, dadurch gekennzeichnet, dass die Kamera (3) zur Aufnahme einer Vielzahl von Kamerabildern (10) in vorgegebenen Zeitabständen hintereinander ausgebildet ist, wobei die Steuereinheit (7) der Vergleichseinheit (4) und der Rendering-Einheit (5) die ermittelte Position und Lage des Luftfahrzeugs (1) zum Zeitpunkt der Aufnahme eines Kamerabilds (10) als Schatzposition und Schätztage des jeweils nächsten Kamerabilds (10) vorgibt.
  7. 7. Positions- und Lagebestimmungseinheit nach Anspruch 6, dadurch gekennzeichnet, dass der Steuereinheit (7) die Geschwindigkeit und Flugrichtung des Flugzeugs (1) zugeführt sind, und die Steuereinheit (7) der Vergleichseinheit (4) und der Rendering-Einheit (5) die Schatzposition und Schätzlage gegenüber der Position und Lage des Luftfahrzeugs (1) der unmittelbar vorangehenden Aufnahme um einen Vektor versetzt zuführt, dessen Länge dem seit der letzten Aufnahme mit der ermittelten Geschwindigkeit zurückgelegten Weg entspricht und dessen Richtung mit der Flugrichtung des Flugobjekts übereinstimmt. 02/12/2011 13:00 Nr.: R864 P.020/026 02/12/2011 12:51 WILDHACK JELLIHEK -» 53424535 NUM090 021 ** · ·* · · ♦ # · ·· • * * * * « · · * » • * * 9 4 9 9 • * Λ Λ · 9 * • * JO * · · · ψ · * * »·*··*· · I ··«·*»·
  8. 8. Luftfahrzeug (1) mit einer Positions- und Lagebestimmungseinheit <2) nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass die Kamera (3) im Luftfahrzeug (1) derart angeordnet ist, dass sie nach außen freie Sicht hat, wobei die Kamera (2) insbesondere auf ein Außenfenster (3) des Luftfahrzeugs (1) gerichtet ist.
  9. 9. Luftfahrzeug (1) nach Anspruch 8, dadurch gekennzeichnet, dass die Kamera (2) derart angeordnet ist, dass sie im Flugbetrieb bei Geradeausflug des Luftfahrzeugs (1) in einem Winkel von 10° bis 50® von einer waagrechten Position nach unten gerichtet ist. 02/12/2011 13:00 Nr.: R864 P.021/026
ATA1788/2011A 2011-12-02 2011-12-02 Verfahren zur bestimmung der position eines luftfahrzeugs AT511460B1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ATA1788/2011A AT511460B1 (de) 2011-12-02 2011-12-02 Verfahren zur bestimmung der position eines luftfahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ATA1788/2011A AT511460B1 (de) 2011-12-02 2011-12-02 Verfahren zur bestimmung der position eines luftfahrzeugs

Publications (2)

Publication Number Publication Date
AT511460A4 true AT511460A4 (de) 2012-12-15
AT511460B1 AT511460B1 (de) 2012-12-15

Family

ID=47502714

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA1788/2011A AT511460B1 (de) 2011-12-02 2011-12-02 Verfahren zur bestimmung der position eines luftfahrzeugs

Country Status (1)

Country Link
AT (1) AT511460B1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2933603A1 (de) * 2014-04-14 2015-10-21 Saab Vricon Systems AB Navigation auf basis von mindestens einem sensor und einer 3d-karte
US9483842B2 (en) 2014-04-14 2016-11-01 Vricon Systems Aktiebolag Navigation based on at least one sensor and a three dimensional map
EP3343172A1 (de) * 2017-01-03 2018-07-04 iOnRoad Technologies Ltd. Erzeugung und verwendung von erweiterten karten

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018191986A1 (zh) * 2017-04-21 2018-10-25 深圳市大疆创新科技有限公司 无人机搜索方法及地面控制端
CN111722179A (zh) * 2020-06-29 2020-09-29 河南天安润信信息技术有限公司 一种多点布设的无人机信号测向方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007054950A1 (de) * 2007-11-17 2009-08-06 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007054950A1 (de) * 2007-11-17 2009-08-06 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CONTE G., DOHERTY P. (2011) A Visual Navigation System for UAS based on geo-referenced Imagery. Proceedings of the International Conference on Unmanned Aerial Vehicle in Geomatics Vol. XXXVIII-1/C22, September 2011 *
GROVES P. D., Principles of GNSS, Inertial, and Multisensor Integrated Navigation Systems. Artech House, Boston/London, 2008 *
GUPTA V., BRENNAN S. (2008) Terrain-based vehicle orientation estimation combining vision and inertial measurements. J. Field Robotics Vol. 25 (3), März 2008 <URL: http://controlfreaks.mne.psu.edu/Publications/Journals/2008_ Gupta_TerrainBasedVehicleOrientationEstimationCombiningVision AndInertialMeasurements.pdf> *
SIM D.-G. et al. (2002) Integrated Position Estimation Using Aerial Image Sequences. IEEE Transactions on Pattern Analysis and Machine Intelligence Vol. 24 (1), Jänner 2002 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2933603A1 (de) * 2014-04-14 2015-10-21 Saab Vricon Systems AB Navigation auf basis von mindestens einem sensor und einer 3d-karte
US9360321B2 (en) 2014-04-14 2016-06-07 Vricon Systems Aktiebolag Navigation based on at least one sensor and a three dimensional map
US9483842B2 (en) 2014-04-14 2016-11-01 Vricon Systems Aktiebolag Navigation based on at least one sensor and a three dimensional map
EP3343172A1 (de) * 2017-01-03 2018-07-04 iOnRoad Technologies Ltd. Erzeugung und verwendung von erweiterten karten
US20180188046A1 (en) * 2017-01-03 2018-07-05 Ionroad Technologies Ltd. Creation and use of enhanced maps
US10969229B2 (en) 2017-01-03 2021-04-06 Red Bend Ltd. Creation and use of enhanced maps
US11959771B2 (en) 2017-01-03 2024-04-16 Red Bend Ltd. Creation and use of enhanced maps

Also Published As

Publication number Publication date
AT511460B1 (de) 2012-12-15

Similar Documents

Publication Publication Date Title
DE112020004813B4 (de) System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
EP2916106B1 (de) Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
CH648656A5 (de) Photogrammetrisches verfahren und photogrammetrische vorrichtung fuer fluggeraete und raumflugkoerper.
EP3596570B2 (de) Verfahren zur durchgangsprüfung eines blitzableiters eines windrads
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102016123286B4 (de) Verfahren und Vorrichtung zur Georeferenzierung von Luftbilddaten
EP2821750A1 (de) Positionsbestimmungsverfahren für ein Vermessungsgerät und ebensolches Vermessungsgerät
AT511460B1 (de) Verfahren zur bestimmung der position eines luftfahrzeugs
DE102014201271A1 (de) Verfahren und Steuergerät zum Erkennen einer Veränderung eines relativen Gierwinkels innerhalb eines Stereo-Video-Systems für ein Fahrzeug
DE102013204597A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Sichtweite bei Nebel am Tag
EP2060873B1 (de) Verfahren zur Stützung der Trägheitsnavigation eines Flugkörpers
EP2369296A2 (de) Navigationsverfahren für einen Flugkörper
DE69730733T2 (de) Flugkörperlenkungssystem mit verriegelung nach abschuss und rekonstruktion von dreidimensionalen szenen
DE112017003426T5 (de) Verfahren und System zum Rekonstruieren einer dreidimensionalen Darstellung
WO2020038944A1 (de) Verfahren und anordnung zum erkennen von objekten an anlagen
DE102017010683B4 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
EP3539085B1 (de) 3d-referenzierung
DE102015224854A1 (de) Verfahren zur Erstellung einer Tiefenkarte
DE112014002943T5 (de) Verfahren zur Registrierung von Daten unter Verwendung eines Satzes von Grundelementen
EP3284010B1 (de) Verfahren zum klassifizieren eines fahrzeugs
DE102016225310A1 (de) Mobiler Manipulator und Verfahren zum Steuern eines mobilen Manipulators
DE102015004943B4 (de) Verfahren zur Richtungskalibration von Kameras eines Kamerasystems
DE102015004939A1 (de) Verfahren zum Lenken eines Flugkörpers
DE10042387A1 (de) Verfahren zum Transformieren dreidimensionaler Objektpunkte in zweidimensionale Bildpunkte für Linear-Fächerstrahlsensor-Bilder