-
Die Erfindung betrifft ein Verfahren zum automatischen bzw. automatisierten Ermitteln von positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen eines Fahrzeuges, wobei die positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen mittels eines optischen Navigationsverfahrens ermittelt werden, das durch ein optisches Navigationssystem ausgeführt wird. Die Erfindung betrifft ebenso ein Navigationssystem, insbesondere ein optisches Navigationssystem zur Durchführung des Verfahrens sowie ein Fahrzeug, insbesondere ein unbemanntes Fahrzeug, mit einem derartigen optischen Navigationssystem.
-
Im Bereich der unbemannten Luftfahrzeuge spielt - neben anderen Elementen - die autarke Selbst-Lokalisierung/Navigation durch die Elektronik des unbemannten Luftfahrzeuges eine wichtige Rolle für den sicheren Betrieb. Nur so kann sichergestellt werden, dass unbemannte Luftfahrzeuge - sei es nun im militärischen oder zivilen Anwendungsbereich - ohne Gefährdung anderer sicher am Luftverkehr teilnehmen können. Die Thematik der autarken Navigation spielt dabei bei nahezu allen unbemannten Fahrzeugen eine große Rolle, wie beispielsweise autonom fahrende Straßen-, Schienen- und/oder Wasserfahrzeuge, und ist eine Grundvoraussetzung, damit die Fahrzeuge in die Lage versetzt werden, selbstständig und ohne Eingriff des Menschen bzw. des menschlichen Verstandes sich durch den Verkehrsraum zu bewegen und innerhalb dessen entsprechend zu navigieren.
-
Die autonome Navigation von unbemannten Fahrzeugen stützt sich dabei auf Sensordaten, mit denen eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges zu einem aktuellen Zeitpunkt abgeleitet werden kann. Derartige Sensordaten stammen überwiegend aus einem GNSS (Global Navigation Satellit System), das beispielsweise ein GPS, Galileo oder Glonass sein kann, mit dem sich die Positionen des unbemannten Fahrzeuges im Raum meist auf wenige Zentimeter genau bestimmen lässt. Darüber hinaus lassen sich aus den GNSS-Sensordaten in der Regel auch bewegungsbezogene Zustandsinformationen ableiten, da über den Dopplereffekt eine Geschwindigkeitsberechnung sowie aus den Sensordaten eine Bewegungsrichtung ableitbar ist.
-
Es hat sich dabei als vorteilhaft herausgestellt, wenn zur Stützung bzw. auch zu Redundanzzwecken zusätzlich zu dem GNSS weitere Sensordaten von anderen Systemen des unbemannten Fahrzeuges ermittelt werden, aus denen sich positions-, bewegungs- und/oder lagebezogene Zustandsinformationen des Fahrzeuges ableiten lassen und die mit den GNSS-Sensordaten fusioniert werden können. Derartige Systeme können beispielsweise das Inertialsystem (IMU) eines unbemannten Fahrzeuges sein, bei dem sich mithilfe von Bewegungs- und/oder Beschleunigungssensoren entsprechende Bewegungs-, Beschleunigungs- und/oder Lagedaten des Fahrzeuges, vorzugsweise in drei translatorischen und drei rotatorischen Bewegungsachsen des Fahrzeuges ermitteln lassen. Fällt beispielsweise durch eine Abschattung oder anderen unvorhersehbaren Ereignissen die Bereitstellung von GNSS-Sensordaten aus, so kann mithilfe dieser Inertialsensoren den daraus abgeleiteten Bewegungs-, Beschleunigungs- und/oder Lagedaten zumindest für einen gewissen Zeitraum die Navigationsfähigkeit des Fahrzeuges aufrechterhalten bleiben, da auf Basis der letzten bekannten Position dann unter Verwendung der ermittelten Inertialdaten die Position während des Ausfalls des GNSS geschätzt werden kann.
-
Ein weiteres System, das zur autonomen Navigation von insbesondere unbemannten Fahrzeugen verwendet werden kann, ist ein optisches Navigationssystem, welches ein optisches Navigationsverfahren ausführt. Aus A.J. Davison, et al.; „MonoSLAM: Real-Time Single Camera SLAM" vol. 29, no. 6, pp. 1052-1067, 2007, ist beispielsweise ein klassisches optisches Navigationsverfahren bekannt, bei dem Kameradaten von fest installierten Kameras mit fester Brennweite genutzt werden. Bei der optischen Navigation, welche insbesondere auf die visuelle Odometrie (VO) oder Simultaneous Localization and Mapping (SLAM) als grundlegende Algorithmen nutzen, werden mithilfe von an dem Fahrzeug angeordneten Kameras digitale Bilder bzw. digitale Bilddaten aufgenommen, die dann mithilfe einer Bildauswerteeinheit analysiert werden. Dabei werden in den digitalen Bildern Bildmerkmale identifiziert, die jeweils Umgebungsmerkmalen in der Fahrzeugumgebung des Fahrzeuges entsprechen und dabei von der Kamera aufgenommen werden. Dies können beispielsweise markante Umgebungsobjekte sein, wie beispielsweise Häuser, Brücken, Türme und ähnliches. Die Umgebungsmerkmale können aber auch Ecken, Kanten und/oder Kontrastübergänge sein, die als Bildmerkmale in den digitalen Bilddaten enthalten sind. Die Bildmarkmale sind dabei insbesondere dergestalt, dass sie sich aus den aufgenommenen Bilddaten gut erkennen und identifizieren lassen, so dass sie sich als Stütze für das weitere Verfahren eignen.
-
Basierend auf den erkannten Bildmerkmalen innerhalb der aufgenommenen Bilder können nun für jedes Bildmerkmal eine Merkmalsposition abgeleitet werden, aus denen sich dann eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges ermitteln lässt. Eine solche Merkmalsposition kann dabei eine absolute oder relative Position des Merkmals in der Fahrzeugumgebung sein, das als Bildmerkmal in den digitalen Bildern enthalten und durch die Kamera aufgenommen und erkannt wurde.
-
So lässt sich für ein Bildmerkmal eine Merkmalsposition dadurch ermitteln, indem ausgehend von einer bekannten Navigationslösung bzw. bekannten positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des Fahrzeuges ein Bildmerkmal in den Bildern erkannt und basierend auf einer Bildposition des Bildmerkmals innerhalb der aufgenommenen digitalen Bilddaten ein erster Winkel ermittelt wird, der die Lage des Merkmals in der Fahrzeugumgebung in Bezug auf das eigene Fahrzeug definiert. Zu einem späteren Zeitpunkt wird dann das Bildmerkmal erneut in den digitalen Bildern erkannt und ein zweiter Winkel ermittelt, wobei dieser sich in der Regel von dem ersten Winkel unterscheidet, da das Fahrzeug zwischen der ersten und der zweiten Aufnahme eine Bewegung vollzogen hat. Aus der Winkeländerung über die Zeit sowie der bekannten Navigationslösung lässt sich dann eine Merkmalsposition des Bildmerkmals in der Fahrzeugumgebung berechnen, die je nach bekannter Navigationslösung des eigenen Fahrzeuges absolut (beispielsweise GPS-Koordinaten) oder relativ zum eigenen Fahrzeug sein kann.
-
Denkbar ist aber auch, dass die Merkmalsposition bekannt ist, da es sich bei dem Bildmerkmal beispielsweise um sogenannte Landmarks handelt, deren fixe Position in einer Datenbank hinterlegt ist.
-
Ist die Position der Bildmerkmale in der Fahrzeugumgebung bekannt, so lässt sich aus der Bildposition der einzelnen Bildmerkmale eine Winkelinformation in Bezug auf das eigene Fahrzeug ableiten und durch eine Triangulation kann dann auf die eigene Position des Fahrzeuges zurückgeschlossen werden. Dadurch wird mithilfe eines optischen Navigationsverfahrens eine weitere Redundanz bei der autonomen Navigation geschaffen, die allein auf einer visuellen Auswertung der Fahrzeugumgebung basiert.
-
Bei der optischen Navigation wird eine Bewegung des Fahrzeuges (insbesondere hinsichtlich der Richtung) durch eine Bewegung der Bildobjekte innerhalb der aufgenommenen Bilder detektiert, so dass auch hier basierend auf einer Bildposition und insbesondere einer Verschiebung bzw. einer Bewegung der erkannten Bildobjekte zwischen zwei zeitlich aufeinanderfolgenden digitalen Bildern auf eine bewegungsbezogene Zustandsinformation des Fahrzeuges geschlossen werden kann. Optische Navigation ist beispielsweise visuelle Odometrie oder SLAM.
-
Die Genauigkeit eines optischen Navigationsverfahrens, insbesondere dann, wenn es auf Winkelinformationen beruht, korreliert dabei mit der Auflösung der Kamera sowie mit der Ausdehnung des Aufnahmebereiches (FOV-Field Of View). Mit zunehmender Auflösung der digitalen Kamera, d.h. mit Zunahme der Anzahl der Pixel sowie einer Verringerung eines Pixelabstandes, kann die Winkelauflösung in Bezug auf ein in den digitalen Bilddaten erkanntes Bildmerkmal erhöht werden, so dass die Genauigkeit in Bezug auf die Winkelinformation erhöht wird. Mit einer Vergrößerung des Aufnahmebereiches (FOV) kann darüber hinaus der Anteil der Fahrzeugumgebung, der für das optische Navigationsverfahren mithilfe der Kamera aufgenommen wird, vergrößert werden, wodurch ebenfalls die Genauigkeit des optischen Navigationsverfahrens verbessert wird, weil hierdurch mehr Bildmerkmale in den Bilddaten erkannt werden können, die einen großen Winkel zueinander aufweisen. Denn je dichter die Bildmerkmale zueinander in den Bilddaten angeordnet sind, desto schlechter wird eine Positionsbestimmung mithilfe einer Triangulation hieraus.
-
Das „Field of View“ (FoV) kann dabei bis auf 360° vergrößert werden, um möglichst viele Bildmerkmale erkennen zu können. Allerdings muss dann mit zunehmender Größe des FoV ein Kompromiss in Bezug auf die Auflösung gefunden werden, da mit zunehmender Größe des FoV die Auflösung in der Regel kleiner wird, was zu Ungenauigkeiten in der Berechnung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des Fahrzeuges führt. Denn je kleiner die Auflösung, desto schlechter die Winkelgenauigkeit bezüglich des Bildmerkmales.
-
Es ist daher Aufgabe der vorliegenden Erfindung ein verbessertes Verfahren und ein verbessertes System für ein optisches Navigationsverfahren anzugeben, mit dem die Genauigkeit bei der Bestimmung von positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des Fahrzeuges, insbesondere UAVs, verbessert werden kann.
-
Die Aufgabe wird mit dem Verfahren gemäß Anspruch 1 sowie einem Navigationssystem gemäß Anspruch 12 erfindungsgemäß gelöst.
-
Gemäß Anspruch 1 wird ein Verfahren zum automatischen Ermitteln von positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen mittels eines optischen Navigationsverfahrens durch ein optisches Navigationssystem des Fahrzeuges angegeben. Bei dem optischen Navigationsverfahren handelt es sich um ein Verfahren, bei dem mithilfe einer Aufnahme eines Teils der Fahrzeugumgebung eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges berechnet wird. Dies kann insbesondere die visuelle Odometrie und die Simultaneous Localization and Mapping Techniken einschließen.
-
Unter einer positions-, bewegungs- und/oder lagebezogenen Zustandsinformation eines Fahrzeuges wird dabei eine die Position, Bewegung und/oder die Lage/Orientierung des Fahrzeuges betreffende Zustandsinformation verstanden, mit der sich auf eine Position, Bewegung und/oder eine Lage/Orientierung des Fahrzeuges schließen lässt. Eine derartige positionsbezogene Zustandsinformation kann dabei beispielsweise eine Position des Fahrzeuges im Raum sein, beispielsweise durch Angabe eines Längengrades und eines Breitengrades und bei Flugobjekten ggf. zusätzlich noch die Höhe. Die positionsbezogene Zustandsinformation kann dabei absolut sein (innerhalb eines Weltkoordinatensystems) oder relativ sein (Fahrzeug stellt Ursprung seines eigenen Koordinatensystems). Eine solche positionsbezogene Zustandsinformation kann ggf. aber auch eine Positionsveränderung gegenüber einer Referenzposition sein oder eine Positionsangabe in Bezug auf eine solche Referenzposition sein. Eine bewegungsbezogene Zustandsinformation ist dabei eine die Bewegung des Fahrzeuges betreffende Bewegungsinformation, wie beispielsweise Geschwindigkeit, Richtung, Beschleunigung oder Bremsung. Eine lagebezogene Zustandsinformation kann bspw. die Raumlage des Fahrzeuges, bspw. in Bezug auf das Erdlot, sein oder die Orientierung des Fahrzeuges in Bezug auf seine Längsachse.
-
Diese positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen eignen sich dabei insbesondere zur Fusionierung mit bestehenden Navigationssystemen anderer Art, um so eine Ermittlungsredundanz aufzubauen, die Ergebnisse anderer Navigationssysteme zu stützen oder ggf. Detektionslücken mithilfe solcher aus dem optischen Navigationsverfahren stammenden positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen zu schließen.
-
Bei dem optischen Navigationsverfahren, wie sie in der Regel aus dem Stand der Technik bekannt sind, werden mithilfe mindestens einer Kamera kontinuierlich digitale Bilddaten der Fahrzeugumgebung aufgenommen. Digitale Bilddaten können dabei jene Bildinformationen sein, die zusammengesetzt ein Bild oder eine Bildsequenz bilden. Eine Bildsequenz ist dabei eine zeitliche Aneinanderreihung bzw. Abfolge von aufgenommenen Bildern. Dabei muss nicht die gesamte Fahrzeugumgebung mithilfe der Kamera aufgenommen werden, sondern nur ein Ausschnitt bzw. ein Teil der Fahrzeugumgebung, so dass sich zu einem bestimmten Zeitpunkt immer nur ein Teil der sichtbaren Hemisphäre mithilfe der Kamera digital erfassen lässt. Mithilfe einer Bildauswerteeinheit werden nun in den digitalen Bilddaten enthaltene Bildmerkmale erkannt, die als Umgebungsmerkmale in der Fahrzeugumgebung des Fahrzeuges liegen und von der Kamera beim Aufnehmen der digitalen Bilddaten aufgenommen wurden.
-
In einer Initialisierungsphase wird für jedes erkannte Bildmerkmal eine Merkmalsposition des im jeweiligen Bildmerkmal entsprechenden Umgebungsmerkmals in Bezug auf das Fahrzeug berechnet, was beispielsweise dadurch geschehen kann, dass ein Bildmerkmal in digitalen Bilddaten, die zu zwei aufeinanderfolgenden Aufnahmezeitpunkten aufgenommen wurden, erkannt und die Merkmalsposition dann in Abhängigkeit einer bestehenden Navigationslösung berechnet wird. Vorteilhafterweise kann dabei eine Veränderung der Bildposition des jeweiligen Bildmerkmals innerhalb des Aufnahmebereiches bezüglich zweier aufeinanderfolgenden Aufnahmezeitpunkte und einer bekannten Navigationslösung bzw. bekannten positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen berechnet werden, so dass in dieser Initialisierungsphase für die bekannten Bildmerkmale eine Merkmalsposition der Umgebungsmerkmale, die als Bildmerkmale in den digitalen Bilddaten enthalten und erkannt wurden, feststeht.
-
Die Ermittlung der Merkmalspositionen der erkannten Bildmerkmale kann in der Initialisierungsphase aber auch dadurch erreicht werden, dass die Merkmalspositionen der Bildmerkmale bekannt sind, und nur noch aus einer Datenbank ausgelesen werden müssen, da die Merkmalspositionen der Bildmerkmale beispielsweise in einem vorherigen Schritt bereits einmal berechnet wurden und abgespeichert wurden oder es sich bei den Umgebungsmerkmalen, die als Bildmerkmale in den digitalen Bildern erkannt wurden, um Landmarken handelt, die mithilfe der Bildauswerteeinheit erkannt und die entsprechende Positionen dieser Landmarken aus einer Datenbank ausgelesen werden.
-
In Abhängigkeit von den Merkmalspositionen der bekannten Bildmerkmale und deren jeweilige Bildposition innerhalb des Aufnahmebereiches lässt sich dann eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges ermitteln, was beispielsweise durch eine Triangulation und Rückprojektion möglich ist. Sind die Positionen der einzelnen Umgebungsmerkmale, die als Bildmerkmale in den digitalen Bildern erkannt wurden, bekannt, so lässt sich basierend auf Winkelinformationen der einzelnen Bildmerkmale, die sich aus der Bildposition innerhalb des Aufnahmebereiches der digitalen Bilddaten ergeben, die eigene Position des Fahrzeuges ableiten. Hierdurch wird es möglich, dass das Fahrzeug auch über bekanntes Terrain fliegen oder sich bewegen kann, und dennoch ein optisches Navigationsverfahren ausführen kann.
-
Erfindungsgemäß ist nun vorgesehen, dass während der Aufnahme der digitalen Bilddaten für das optische Navigationsverfahren wie vorstehend beschrieben die Aufnahmerichtung der mindestens einen Kamera durch Schwenken und/oder Neigen (Bewegen) der Kamera gegenüber dem Fahrzeug mittels einer Steuereinheit verändert wird, so dass in eine erste Aufnahmerichtung digitale Bilddaten eines Teils der Fahrzeugumgebung in einem ersten Aufnahmeteilbereich, innerhalb dessen wenigstens ein erstes Bildmerkmal enthalten ist, und in wenigstens eine zweite Aufnahmerichtung digitale Bilddaten eines Teils der Fahrzeugumgebung in einen zweiten Aufnahmeteilbereich, innerhalb dessen wenigstens ein zweites Bildmerkmal enthalten ist, durch die Kamera aufgenommen werden. Die erste Aufnahmerichtung mit dem ersten Aufnahmeteilbereich ist dabei von der zweiten Aufnahmerichtung mit dem zweiten Aufnahmeteilbereich verschieden, wodurch die Kamera mehrere verschiedene Aufnahmeteilbereiche innerhalb der gesamten Fahrzeugumgebung aufnehmen kann. Der Gesamtaufnahmebereich ist somit nicht mehr fest vorgegeben, wie dies bei fest installierten Kameras der Fall ist, sondern wird variabel in Aufnahmeteilbereiche innerhalb der Fahrzeugumgebung unterteilt, wodurch die aus dem Stand der Technik bekannten Nachteile insbesondere bei unbemannten Flugobjekten mit großer Höhe, überwunden werden können.
-
Der gesamte Bewegungsbereich der Kamera definiert dabei einen Neige- und Schwenkbereich, der dem gesamten Aufnahmebereich entspricht, wobei innerhalb des gesamten Aufnahmebereiches ein Aufnahmeteilbereich in Abhängigkeit von der Aufnahmerichtung und dem FoV der Kamera gebildet wird. Der gesamte Aufnahmebereich (definiert durch den Neige- und Schwenkbereich) kann dabei niemals vollständig zur selben Zeit aufgenommen werden.
-
Hierdurch wird es möglich, hochauflösende Kameras einzusetzen, die aufgrund ihrer hohen Auflösung eine sehr hohe Winkelgenauigkeit aufweisen, wodurch die Genauigkeit bei der Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation des Fahrzeuges erhöht werden kann. Außerdem kann die Genauigkeit in der Initialisierungsphase, bei der die Merkmalsposition der Bildmerkmale ermittelt werden, erhöht werden, was wiederum die Genauigkeit bei der Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation des Fahrzeuges erhöht. Insgesamt kann somit die Genauigkeit des optischen Navigationsverfahrens erhöht werden. Es wird somit auch möglich, bei konstanter Auflösung einer Kamera im Vergleich zum Stand der Technik einen größeren FoV zu erreichen.
-
Hierdurch wird es außerdem möglich, bei einer Kamera mit beliebiger Auflösung die Winkelauflösung durch ein kleines FoV zu erhöhen und gleichzeitig die Ausdehnung des FoV zu erhöhen.
-
Es können nunmehr auch Kameras verwendet werden, deren digitale Bildsensoren einen sehr geringen Pixelabstand aufweisen, wodurch eine hohe Winkelauflösung und somit in der Regel eine hohe Pixelanzahl möglich wird. Gleichzeitig wird jedoch der Aufnahmebereich verringert, so dass die Rechenleistung insgesamt nicht erhöht wird, wobei der verkleinerte Aufnahmebereich mit hoher Winkelauflösung durch die Veränderung der Aufnahmerichtung kompensiert wird und somit dennoch die im Schwenk- und Neigebereich der Kamera liegende Hemisphäre der Fahrzeugumgebung abgedeckt werden kann.
-
In einer vorteilhaften Ausführungsform werden die Merkmalspositionen der jeweiligen Bildmerkmale in Bezug auf das Fahrzeug weiterhin unter Berücksichtigung der jeweiligen Aufnahmerichtung berechnet, mit der digitalen Bilddaten in dem jeweiligen Aufnahmeteilbereich, in dem das jeweilige Bildmerkmale enthalten ist, aufgenommen wurde. Die Ablage des Bildmerkmales innerhalb der digitalen Bilddaten von der Bildmitte, die dann in den jeweiligen Dimensionen den Winkel darstellt, wird um die Ablage der Aufnahmerichtung von einer Referenzachse bzw. Bezugsachse, beispielsweise die Längsachse des Fahrzeuges, korrigiert, so dass sich insgesamt eine Bildposition in Bezug auf die Bezugsachse des Fahrzeuges ergibt. Dies kann beispielsweise dadurch geschehen, dass eine Rückkopplung des Schwenk- und/oder Neigezustandes der Kamera an das optische Navigationssystem erfolgt. Denkbar ist aber auch, dass mit einer weiteren Kamera zunächst sehr grob aufgelöst der gesamte Schwenk- und Neigebereich der veränderbaren Kamera erfasst wird, wobei der durch die Aufnahmerichtung definierte Aufnahmeteilbereich innerhalb der Gesamtaufnahme detektiert und dann die Verschiebung des Aufnahmeteilbereiches in den Gesamtaufnahmebereich detektiert wird.
-
In einer weiteren vorteilhaften Ausführungsform wird während der Aufnahme der digitalen Bilddaten die Brennweite eines Kameraobjektives der mindestens einen schwenk- und/oder neigbaren Kamera verändert, wodurch innerhalb des Aufnahmeteilbereiches in eine Aufnahmerichtung hereingezoomt und nach dem hereinzoomen wieder herausgezoomt werden kann. Dies ist beispielsweise besonders dann vorteilhaft, wenn das Fahrzeug ein Flugobjekt mit großer Höhe ist, so dass in Abhängigkeit von der Höhe eine Brennweite eingestellt wird, mit dem innerhalb des Aufnahmeteilbereichs hereingezoomt wird, wodurch die realen Abmessungen des Aufnahmeteilbereiches verkleinert werden. Hierdurch kann eine Erhöhung der Winkelauflösung erreicht werden, was insbesondere bei weit entfernten Umgebungsmerkmalen vorteilhaft ist.
-
In einer vorteilhaften Ausführungsform werden die digitalen Bilddaten des ersten Aufnahmeteilbereichs zu einem ersten Zeitpunkt und digitalen Bilddaten des zweiten Aufnahmeteilbereiches zu einem auf den ersten Zeitpunkt folgenden zweiten Zeitpunkt durch die Kamera aufgenommen, wobei in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt die Aufnahmerichtung der mindestens einen Kamera von dem ersten Aufnahmeteilbereich hin zu dem zweiten Aufnahmeteilbereich geschwenkt und/oder geneigt wird. Damit werden die Bildmerkmale zeitlich nacheinander durch die Kamera aufgenommen. Dabei ist es selbstverständlich denkbar, dass die Umgebungsmerkmale in der Fahrzeugumgebung so verteilt sind, dass jedes einem Umgebungsmerkmal entsprechenden Bildmerkmal in einem eigenen Aufnahmeteilbereich liegt. Die Kamera muss somit zwischen den einzelnen Aufnahmeteilbereichen hin und her schwenken und/oder neigen, um die einzelnen Aufnahmeteilbereiche entsprechend aufnehmen zu können.
-
Bezüglich dessen ist es vorteilhaft, wenn in der Zeitspanne zwischen dem ersten und dem wenigstens zweiten Zeitpunkt zusätzliche Positions- und/oder Bewegungsdaten des Fahrzeuges mittels Sensoren ermittelt werden, die nicht durch das optische Navigationssystem bereitgestellt werden. Derartige Positions- und/oder Bewegungsdaten können beispielsweise von einem GNSS oder von einem Inertialsensorsystem stammen, wodurch Positions- und/oder Bewegungsänderungen des Fahrzeuges in der Zeitspanne zwischen dem ersten und dem zweiten Zeitpunkt detektierbar sind.
-
Die positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen werden nun in Abhängigkeit von der Merkmalsposition des ersten Bildmerkmales und deren Bildpositionen im ersten Aufnahmeteilbereich, der Merkmalsposition des wenigstens zweiten Bildmerkmals und deren Bildpositionen im zweiten Aufnahmeteilbereich und der zusätzlichen Positions- und/oder Bewegungsdaten des Fahrzeuges in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt ermittelt, so dass Bewegungen des Fahrzeuges in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt sich nicht negativ auf die Genauigkeit bei der Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen auswirkt.
-
So ist es beispielsweise denkbar, dass in der Zeitspanne, die die Kamera für das Schwenken und/oder Neigen von dem ersten Aufnahmeteilbereich hin zum zweiten Aufnahmeteilbereich benötigt, Positions-, Bewegungs- und/oder Lageänderungen des Fahrzeuges aus den Positions-, Bewegungs- und/oder Lagedaten des Fahrzeuges berechnet werden, um so eine Positions-, Bewegungs- und/oder Lageänderung des Fahrzeuges innerhalb dieser Zeitspanne bzw. am Ende der Zeitspanne zwischen dem ersten und zweiten Zeitpunkt feststellen zu können. Basierend auf dieser Positions-, Bewegungs- und/oder Lageänderung des Fahrzeuges innerhalb dieser Zeitspanne lässt sich dann beispielsweise eine geschätzte Bildposition des ersten Bildmerkmales in dem ersten Aufnahmeteilbereich mit dem zweiten Zeitpunkt berechnen, so dass die geschätzte Bildposition des ersten Bildmerkmals in den ersten Aufnahmeteilbereich derjenigen Bildposition entspricht, als würde das erste Bildmerkmal in den ersten Aufnahmeteilbereich zum zweiten Zeitpunkt aufgenommen und erkannt werden. Hierdurch kann ein aus dem Schwenk- und/oder Neigezeitraum entstehender Navigationsfehler vermieden werden, der in dem Schwenken und/oder Neigen der Kamera von in dem ersten Aufnahmeteilbereich hin zum zweiten Aufnahmeteilbereich begründet liegt.
-
Denkbar ist selbstverständlich auch, dass basierend auf der Positions-, Bewegungs- und/oder Lageänderung des Fahrzeuges innerhalb der Zeitspanne zwischen dem ersten und dem zweiten Zeitpunkt eine geschätzte Bildposition des zweiten Bildmerkmals in dem zweiten Aufnahmeteilbereich für den ersten Zeitpunkt berechnet wird, so dass ausgehend von der Bildposition des aufgenommenen zweiten Bildmerkmals in dem zweiten Aufnahmeteilbereich die geschätzte Bildposition zum ersten Zeitpunkt rückprojiziert wird.
-
In beiden Fällen liegen dann zum jeweils zweiten Zeitpunkt die Bildpositionen der ersten und zweiten Bildmerkmale so vor, als würden sie zu dem jeweiligen Zeitpunkt gleichzeitig aufgenommen und erkannt werden.
-
Die Erfinder haben dabei erkannt, dass das Schwenken und/oder Neigen der Kamera von einem Aufnahmeteilbereich hin zum zweiten Aufnahmeteilbereich in einer Zeitspanne erfolgt, die mithilfe von Sensordaten aus einem Inertialsensorsystem oder anderen Sensorsystemen überbrückbar ist, so dass hier keine oder nur geringe Genauigkeitsverluste entstehen.
-
Selbstverständlich ist es denkbar, dass weitere dritte, vierte, fünfte usw. Aufnahmeteilbereiche mit jeweils verschiedenen Aufnahmerichtungen für das Verfahren verwendet werden, wobei auch hier zwischen den einzelnen Zeitpunkten, an denen die digitalen Bilddaten für den jeweiligen Aufnahmeteilbereich gemacht wurden, weitere Sensordaten im weiteren Verlauf ermittelt werden können. Der erste und zweite Aufnahmeteilbereich mit der ersten und zweiten Aufnahmerichtung ist dabei nicht abschließend oder einschränkend zu verstehen.
-
In einer weiteren vorteilhaften Ausführungsform wird innerhalb eines Schwenk- und/oder Neigebereiches der Kamera neue Bildmerkmale für die Durchführung des optischen Navigationsverfahrens gesucht, wobei die Kamera in eine Suchrichtung eines Aufnahmesuchbereiches geschwenkt oder geneigt wird, die in Abhängigkeit von den Aufnahmerichtungen der Aufnahmeteilbereiche bereits bekannter Bildmerkmale gewählt wird. So ist es vorteilhaft, wenn innerhalb von Aufnahmesuchbereichen neue Bildmerkmale gesucht werden, die einen großen Abstand in Bezug auf die Aufnahmeteilbereiche von bereits bekannten Bildmerkmalen haben. Dabei ist es ganz besonders vorteilhaft, wenn die Suchrichtung des Aufnahmesuchbereiches in Abhängigkeit von einer Varianz des Zustandes des Fahrzeuges gewählt wird. Damit wird die Suchrichtung auf jene Richtungen beschränkt, in die die größte Unsicherheit in Bezug auf die Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation vorhanden ist.
-
Die Erfindung wird anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
- 1 - Schematische Darstellung des erfindungsgemäßen optischen Navigationssystems;
- 2 - Darstellung einer Ausführungsform für die Berechnung.
-
1 zeigt schematisch ein optisches Navigationssystem 1 das eine schwenk- und/oder neigbare Kamera 2 und eine damit verbundene Recheneinheit 3 zur Berechnung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen eines nicht dargestellten Fahrzeuges hat. Die Recheneinheit 3 weist eine Bildauswerteeinheit 4 auf, die mit der Kamera 2 signaltechnisch verbunden ist und zur Analyse der aufgenommenen Bilddaten ausgebildet ist. Die Bildauswerteeinheit ist des Weiteren mit einer Navigationseinheit 5 verbunden, die zum Berechnen der positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des Fahrzeuges ausgebildet ist.
-
Das optische Navigationssystem 1 kann dabei mit einem weiteren Navigationssystem 6 des Fahrzeuges verbunden oder Bestandteil dieses Navigationssystems 6 sein, wobei das Navigationssystem 6 mit einem GNSS-Sensor 7 zum Erfassen von Positions- , Bewegungs- und/oder Lagedaten mithilfe eines satellitengestützten Navigationssystems verbunden ist. Das Navigationssystem 6 ist darüber hinaus auch mit dem fahrzeuginternen Inertialsystem 8 verbunden, das im Ausführungsbeispiel der 1 in Form eines Fahrzeugbusses dargestellt ist. Das Inertialsystem 8 kann dabei auch mit dem optischen Navigationssystem 1 verbunden sein, wie später noch erläutert wird.
-
Das Navigationssystem 6 kann dabei so ausgebildet, dass es die Positions-, Bewegungs- und/oder Lagedaten des GNSS 7 sowie des Inertialsystems 8 und die positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des optischen Navigationssystems 1 miteinander fusioniert, um so bspw. autark und völlig automatisch ein unbemanntes Fahrzeug zu navigieren. Die positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des optischen Navigationssystems 1 können dabei bspw. dann genutzt werden, wenn das Fahrzeug auf andere Navigationslösungen gerade nicht zurückgreifen kann.
-
Zurückkommend auf das optische Navigationssystem 1, ist die Kamera 2 schwenk- und/oder neigbar ausgebildet, wobei im Ausführungsbeispiel der 1 ein Schwenken und Neigen der Kamera gegenüber einer Bezugsachse X dargestellt ist. Durch das Schwenken und/oder Neigen der Kamera 2, d.h. eine relative Bewegung gegenüber der Bezugsachse X, lassen sich innerhalb des Aufnahmebereiches 10 der Kamera 2 digitale Bilddaten in Form von Bildern oder Bildsequenzen aufnehmen. Der Aufnahmebereich 10 ist dabei auch gleichzeitig der Neige-/Schwenkbereich 20 der Kamera. Der tatsächliche Bereich, innerhalb dessen die Kamera zu einem Zeitpunkt digitale Bilddaten aufnehmen kann, ist indes jedoch kleiner als der Gesamtaufnahmebereich 10 bzw. der Neige-/Schwenkbereich 20, sodass innerhalb des Gesamtaufnahmebereiches 10 entsprechende Aufnahmeteilbereiche 11, 12, 13 entstehen, in denen zu einem Zeitpunkt digitale Bilddaten aufgenommen werden können, ohne das die Kamera geschwenkt und/oder geneigt werden muss. Sollen jedoch ausgehend von einem ersten Aufnahmeteilbereich 11 in einem zweiten Aufnahmeteilbereich 12 digitale Bilddaten aufgenommen werden, so muss die Kamera 2 von dem ersten Aufnahmeteilbereich 11 hin zu dem zweiten Aufnahmeteilbereich 12 geschwenkt und/oder geneigt werden. Mit Hilfe der Kamera 2 können jedoch ohne Schwenken und/oder Neigen zu einem Zeitpunkt keine digitalen Bilddaten in zwei unterschiedlichen Aufnahmeteilbereichen 11, 12, 13 aufgenommen werden.
-
In eine erste Aufnahmerichtung R1 wird im Ausführungsbeispiel der 1 ein erster Aufnahmeteilbereich 11 definiert, innerhalb dessen in der realen Umgebung des Fahrzeuges ein Umgebungsmerkmal liegt, das in den aufgenommenen digitalen Bilddaten innerhalb des ersten Aufnahmeteilbereiches 11 in Form eines ersten Bildmerkmales B1 enthalten ist. Im ersten Aufnahmeteilbereich 11 befindet sich das erkannte Bildmerkmal, das von der Bildauswerteeinheit 4 in den digitalen Bilddaten des ersten Aufnahmeteilbereichs 11 erkannt wurde, in der oberen linken Bildhälfte.
-
Anschließend wird die Kamera 2 zu dem gestrichelt dargestellten zweiten Aufnahmeteilbereich 12 geschwenkt, wobei in dem zweiten Aufnahmeteilbereich 12 das zu erkennende Bildmerkmal B2 in der rechten unteren Bildhälfte enthalten ist. In gleicher Art und Weise wird dann die Kamera wiederum geschwenkt bzw. geneigt, um so innerhalb des dritten Aufnahmeteilbereiches 13 ein entsprechendes drittes Bildmerkmal B3 zu erkennen.
-
Wurde beispielsweise durch eine vorangegangene Initialisierungsphase die Merkmalspositionen der Bildmerkmale B1 , B2 und B3 bezüglich ihrer realen Umgebungsmerkmale ermittelt, so kann nun anhand der Erkennung der einzelnen Bildmerkmale B1 , B2 und B3 eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation für das Fahrzeug ermittelt werden. Hierfür wird zunächst für jedes Bildmerkmal B1 , B2 und B3 die Bildposition ermittelt.
-
In Bezug auf den ersten Aufnahmeteilbereich 11 lässt sich die Bildposition B1 als Winkelablage zwischen einer Kamerabezugsachse (hier die Bildmitte) als Erstaufnahmerichtung R1 und der Sichtlinie zu dem Bildmerkmal B1 darstellten. Basierend auf einem Schwenk- und/oder Neigewinkel α1 der Kamera, der sich bei einem Schwenken und/oder Neigen der Kamera 2 zwischen der Bezugsachse X des Fahrzeuges und der ersten Aufnahmerichtung R1 der Kamera 2 einstellt, lässt sich dann zusammen mit der Winkelablage P1 dann ein tatsächlicher Winkel zwischen der Bezugsachse X des Fahrzeuges einerseits und der Sichtlinie zu dem Bildmerkmal B1 andererseits berechnen. Hierdurch ergibt sich sowohl in horizontaler als auch in vertikaler Ablage eine Bildposition des Bildmerkmales B1 im gesamten Aufnahmebereich 10 des Schwenk- und/oder Neigebereiches 20 der Kamera 2, so dass in Bezug auf das Fahrzeug feststellbar ist, unter welchem Winkel das Bildmerkmal B1 zu beobachten ist.
-
Analog hierzu wird die Bildposition des zweiten Bildmerkmales B2 und des dritten Bildmerkmales B3 ermittelt. Auch hier wird eine Winkelinformation P2 zwischen der zweiten Aufnahmerichtung R2 der Kamera 2 sowie der Sichtlinie zwischen Kamera und dem Bildmerkmal B2 berechnet, wobei sich aus einer Winkelablage der Aufnahmerichtung R2 (Kamerabezugsachse) zu der Bezugsachse X des Fahrzeuges dann ein entsprechender Winkel zu dem Bildmerkmal B2 in Bezug auf das gesamte Fahrzeug ermitteln lässt. In gleicher Art und Weise wird dann die Bildposition für das dritte Merkmal B3 ermittelt.
-
Selbstverständlich sind noch weitere Aufnahmeteilbereiche und Bildmerkmale denkbar, die jedoch aufgrund der Übersichtlichkeit zur Darstellung des Funktionsprinzips nicht dargestellt sind. Grundsätzlich reichen für eine Rückprojektion zur Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation, d.h. bspw. eine Ermittlung der eigenen Position, basierend auf der Position der den jeweiligen Bildmerkmalen B1 bis B3 entsprechenden Umgebungsmerkmale und den dazugehörigen Winkelangaben drei Bildmerkmale. Für die Genauigkeitserhöhung des Systems ist es jedoch vorteilhaft, wenn mehr als drei Bildmerkmale erkennbar sind. Bei weniger als drei Bildmerkmalen ist eine Positionsangabe mit einer gewissen Fehlervarianz möglich, wobei unter Kenntnis der Höhe des Flugobjektes, die sich in der Regel selten sprunghaft ändert, eine hinreichende Positionsangabe möglich.
-
Aus der Zusammenführung der ermittelten und berechneten Werte lässt sich dann eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation Z des Fahrzeuges berechnen durch
berechnen. Durch die Verwendung einer schwenk- und/oder neigbaren Kamera
2 mit normaler Auflösung wird es möglich, eine hohe Winkelauflösung bei einem großen FoV zu erreichen. Dadurch kann der jeweilige Objektwinkel
P1 bis
P3 sehr hochauflösend erkannt werden, da das jeweilige Bildobjekt
B1 bis
B3 sehr präzise in den hochauflösenden digitalen Bilddaten detektierbar ist. Durch die gegenüber dem Schwenkbereich
20 verkleinerten, insbesondere stark verkleinerten Aufnahmeteilbereiche
11 bis
13 der Kamera
2 kann darüber hinaus die Gesamtpixelmenge auf ein für die Bildauswerteeinheit
4 in Echtzeit verrechenbaren Maß gehalten werden.
-
2 zeigt stark vereinfacht den Fall, dass das optische Navigationssystem mit einem Inertialdatensystem 8 des Fahrzeuges verbunden ist, um so zeitliche Erkennungslücken kompensieren zu können. Zum Zeitpunkt T1 wird dabei das Bildmerkmal B1 des ersten Aufnahmeteilbereiches 11 (s. 1) erkannt und die entsprechenden Winkelinformation P1 berechnet. Zum Zeitpunkt T2 wird das zweite Bildmerkmal B2 im zweiten Aufnahmeteilbereich 12 erkannt und die entsprechende Winkelinformation P2 ermittelt. In der Zeitspanne zwischen T1 und T2, in der die Kamera 2 von dem ersten Aufnahmeteilbereich 11 zu dem zweiten Aufnahmeteilbereich 12 geschwenkt und/oder geneigt wurde, werden zusätzliche Inertialsensordaten S1 aus dem Inertialsensorsystem 8 des Fahrzeuges ermittelt, die Positions- und/oder Bewegungsdaten des Fahrzeuges innerhalb dieser Zeitspanne zwischen T1 und T2 enthalten.
-
Zu einem auf den Zeitpunkt T2 folgenden Zeitpunkt T3 wird dann das dritte Bildmerkmal B3 in dem dritten Aufnahmeteilbereich 13 ermittelt, wobei in der Zeitspanne zwischen T2 und T3 ebenfalls Inertialdaten aus dem Inertialdatensystem 8 abgegriffen werden.
-
Zum Zeitpunkt T3 liegen somit dem System entsprechend drei Winkelinformationen P1 bis P3 bezüglich der drei Bildmerkmale vor, aus denen sich dann die positions-, bewegungs- und/oder lagebezogene Zustandsinformation ermitteln lässt. Allerdings sind zum Zeitpunkt T3 die zum Zeitpunkt T1 und zum Zeitpunkt T2 ermittelten Winkelinformationen P1 und P2 bezüglich der zu den jeweiligen Zeitpunkten aufgenommenen digitalen Bilder veraltet, was sich in einer größeren Unsicherheit in den ermittelten positions-, bewegungs- und/oder lagebezogene Zustandsinformation niederschlägt.
-
Daher ist es vorteilhaft, dass basierend auf den Inertialsensordaten S1 und S2 und den Merkmalspositionen der Bildmerkmale B1 und B2 für die jeweiligen Zeitspannen die Winkelinformationen P1 und P2 weitergetragen werden und so geschätzte erste Winkelinformationen P1' und P2' ermittelt werden.
-
Die positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges wird sodann aus den geschätzten ersten Winkelinformation P1' (als Bildposition des ersten Bildmerkmales) und aus der geschätzten zweiten Winkelinformation P2' (als Bildposition des zweiten Bildmerkmales) und der Winkelinformationen P3 (als Bildposition des dritten Bildmerkmales) ermittelt, wodurch die Unsicherheit aufgrund der Zeitspanne zwischen T1 und T2 bzw. T3 verringert werden können.
-
Bezugszeichenliste
-
- 1 -
- optisches Navigationssystem
- 2 -
- Kamera
- 3 -
- Recheneinheit
- 4 -
- Bildauswärteeinheit
- 5 -
- Navigationseinheit
- 6 -
- Navigationssystem
- 7 -
- GNSS
- 8 -
- Inertialsensorsystem
- 10 -
- Gesamtaufnahmebereich
- 11 -
- erster Aufnahmeteilbereich
- 12 -
- zweiter Aufnahmeteilbereich
- 13 -
- dritter Aufnahmeteilbereich
- B1 -
- erstes Bildobjekt
- B2 -
- zweites Bildobjekt
- B3 -
- drittes Bildobjekt
- R1 -
- erste Aufnahmerichtung
- R2 -
- zweite Aufnahmerichtung
- R3 -
- dritte Aufnahmerichtung
- P1 -
- erste Winkelinformation bzw. Bildposition
- P2 -
- zweite Winkelinformation bzw. Bildposition
- P3 -
- dritte Winkelinformation bzw. Bildposition
- α1 -
- erster Kamerawinkel
- α2 -
- zweiter Kamerawinkel
- α3 -
- dritter Kamerawinkel
- 20 -
- Schwenkbereich
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Nicht-Patentliteratur
-
- A.J. Davison, et al.; „MonoSLAM: Real-Time Single Camera SLAM“ vol. 29, no. 6, pp. 1052-1067, 2007 [0005]