DE102016120196A1 - Verfahren und Vorrichtung zum automatischen Ermitteln von positions- und/oder bewegungsbezogenen Zustandsinformationen eines Fahrzeuges - Google Patents

Verfahren und Vorrichtung zum automatischen Ermitteln von positions- und/oder bewegungsbezogenen Zustandsinformationen eines Fahrzeuges Download PDF

Info

Publication number
DE102016120196A1
DE102016120196A1 DE102016120196.0A DE102016120196A DE102016120196A1 DE 102016120196 A1 DE102016120196 A1 DE 102016120196A1 DE 102016120196 A DE102016120196 A DE 102016120196A DE 102016120196 A1 DE102016120196 A1 DE 102016120196A1
Authority
DE
Germany
Prior art keywords
vehicle
image
camera
feature
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016120196.0A
Other languages
English (en)
Inventor
Nikolaus Alexander Ammann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102016120196.0A priority Critical patent/DE102016120196A1/de
Publication of DE102016120196A1 publication Critical patent/DE102016120196A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum automatischen Ermitteln von positions-, bewegungs- und/oder lagebezogene Zustandsinformationen eines Fahrzeuges, wobei die positions-, bewegungs- und/oder lagebezogene Zustandsinformationen mittels eines optischen Navigationsverfahrens durch ein optisches Navigationssystem des Fahrzeuges ermittelt werden, bei demmittels mindestens einer Kamera in einem Aufnahmebereich digitale Bilddaten zumindest eines Teils der Fahrzeugumgebung aufgenommen werden,durch eine Bildauswerteeinheit wenigstens zwei in den digitalen Bilddaten enthaltene Bildmerkmale erkannt werden, die als in der Fahrzeugumgebung des Fahrzeuges liegende Umgebungsmerkmale von der Kamera aufgenommen werden,in einer Initialisierungsphase für jedes erkannte Bildmerkmal eine Merkmalsposition des dem jeweiligen Bildmerkmal entsprechenden Umgebungsmerkmals in Bezug auf das Fahrzeug ermittelt wird, undnach der Initialisierungsphase aus den berechneten Merkmalspositionen der jeweiligen Bildmerkmale und deren jeweilige Bildposition innerhalb des Aufnahmebereiches dann eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges ermittelt wird, dadurch gekennzeichnet, dassdie Aufnahmerichtung der mindestens einen Kamera durch Schwenken und/oder Neigen der Kamera gegenüber dem Fahrzeug mittels einer Steuereinheit verändert wird, so dass in eine erste Aufnahmerichtung digitale Bilddaten der Fahrzeugumgebung in einem ersten Aufnahmeteilbereich, innerhalb dessen ein erstes Bildmerkmal enthalten ist, und in wenigstens eine zweite Aufnahmerichtung digitale Bilddaten der Fahrzeugumgebung in wenigstens einem zweiten Aufnahmeteilbereich, innerhalb dessen wenigstens ein zweites Bildmerkmal

Description

  • Die Erfindung betrifft ein Verfahren zum automatischen bzw. automatisierten Ermitteln von positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen eines Fahrzeuges, wobei die positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen mittels eines optischen Navigationsverfahrens ermittelt werden, das durch ein optisches Navigationssystem ausgeführt wird. Die Erfindung betrifft ebenso ein Navigationssystem, insbesondere ein optisches Navigationssystem zur Durchführung des Verfahrens sowie ein Fahrzeug, insbesondere ein unbemanntes Fahrzeug, mit einem derartigen optischen Navigationssystem.
  • Im Bereich der unbemannten Luftfahrzeuge spielt - neben anderen Elementen - die autarke Selbst-Lokalisierung/Navigation durch die Elektronik des unbemannten Luftfahrzeuges eine wichtige Rolle für den sicheren Betrieb. Nur so kann sichergestellt werden, dass unbemannte Luftfahrzeuge - sei es nun im militärischen oder zivilen Anwendungsbereich - ohne Gefährdung anderer sicher am Luftverkehr teilnehmen können. Die Thematik der autarken Navigation spielt dabei bei nahezu allen unbemannten Fahrzeugen eine große Rolle, wie beispielsweise autonom fahrende Straßen-, Schienen- und/oder Wasserfahrzeuge, und ist eine Grundvoraussetzung, damit die Fahrzeuge in die Lage versetzt werden, selbstständig und ohne Eingriff des Menschen bzw. des menschlichen Verstandes sich durch den Verkehrsraum zu bewegen und innerhalb dessen entsprechend zu navigieren.
  • Die autonome Navigation von unbemannten Fahrzeugen stützt sich dabei auf Sensordaten, mit denen eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges zu einem aktuellen Zeitpunkt abgeleitet werden kann. Derartige Sensordaten stammen überwiegend aus einem GNSS (Global Navigation Satellit System), das beispielsweise ein GPS, Galileo oder Glonass sein kann, mit dem sich die Positionen des unbemannten Fahrzeuges im Raum meist auf wenige Zentimeter genau bestimmen lässt. Darüber hinaus lassen sich aus den GNSS-Sensordaten in der Regel auch bewegungsbezogene Zustandsinformationen ableiten, da über den Dopplereffekt eine Geschwindigkeitsberechnung sowie aus den Sensordaten eine Bewegungsrichtung ableitbar ist.
  • Es hat sich dabei als vorteilhaft herausgestellt, wenn zur Stützung bzw. auch zu Redundanzzwecken zusätzlich zu dem GNSS weitere Sensordaten von anderen Systemen des unbemannten Fahrzeuges ermittelt werden, aus denen sich positions-, bewegungs- und/oder lagebezogene Zustandsinformationen des Fahrzeuges ableiten lassen und die mit den GNSS-Sensordaten fusioniert werden können. Derartige Systeme können beispielsweise das Inertialsystem (IMU) eines unbemannten Fahrzeuges sein, bei dem sich mithilfe von Bewegungs- und/oder Beschleunigungssensoren entsprechende Bewegungs-, Beschleunigungs- und/oder Lagedaten des Fahrzeuges, vorzugsweise in drei translatorischen und drei rotatorischen Bewegungsachsen des Fahrzeuges ermitteln lassen. Fällt beispielsweise durch eine Abschattung oder anderen unvorhersehbaren Ereignissen die Bereitstellung von GNSS-Sensordaten aus, so kann mithilfe dieser Inertialsensoren den daraus abgeleiteten Bewegungs-, Beschleunigungs- und/oder Lagedaten zumindest für einen gewissen Zeitraum die Navigationsfähigkeit des Fahrzeuges aufrechterhalten bleiben, da auf Basis der letzten bekannten Position dann unter Verwendung der ermittelten Inertialdaten die Position während des Ausfalls des GNSS geschätzt werden kann.
  • Ein weiteres System, das zur autonomen Navigation von insbesondere unbemannten Fahrzeugen verwendet werden kann, ist ein optisches Navigationssystem, welches ein optisches Navigationsverfahren ausführt. Aus A.J. Davison, et al.; „MonoSLAM: Real-Time Single Camera SLAM" vol. 29, no. 6, pp. 1052-1067, 2007, ist beispielsweise ein klassisches optisches Navigationsverfahren bekannt, bei dem Kameradaten von fest installierten Kameras mit fester Brennweite genutzt werden. Bei der optischen Navigation, welche insbesondere auf die visuelle Odometrie (VO) oder Simultaneous Localization and Mapping (SLAM) als grundlegende Algorithmen nutzen, werden mithilfe von an dem Fahrzeug angeordneten Kameras digitale Bilder bzw. digitale Bilddaten aufgenommen, die dann mithilfe einer Bildauswerteeinheit analysiert werden. Dabei werden in den digitalen Bildern Bildmerkmale identifiziert, die jeweils Umgebungsmerkmalen in der Fahrzeugumgebung des Fahrzeuges entsprechen und dabei von der Kamera aufgenommen werden. Dies können beispielsweise markante Umgebungsobjekte sein, wie beispielsweise Häuser, Brücken, Türme und ähnliches. Die Umgebungsmerkmale können aber auch Ecken, Kanten und/oder Kontrastübergänge sein, die als Bildmerkmale in den digitalen Bilddaten enthalten sind. Die Bildmarkmale sind dabei insbesondere dergestalt, dass sie sich aus den aufgenommenen Bilddaten gut erkennen und identifizieren lassen, so dass sie sich als Stütze für das weitere Verfahren eignen.
  • Basierend auf den erkannten Bildmerkmalen innerhalb der aufgenommenen Bilder können nun für jedes Bildmerkmal eine Merkmalsposition abgeleitet werden, aus denen sich dann eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges ermitteln lässt. Eine solche Merkmalsposition kann dabei eine absolute oder relative Position des Merkmals in der Fahrzeugumgebung sein, das als Bildmerkmal in den digitalen Bildern enthalten und durch die Kamera aufgenommen und erkannt wurde.
  • So lässt sich für ein Bildmerkmal eine Merkmalsposition dadurch ermitteln, indem ausgehend von einer bekannten Navigationslösung bzw. bekannten positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des Fahrzeuges ein Bildmerkmal in den Bildern erkannt und basierend auf einer Bildposition des Bildmerkmals innerhalb der aufgenommenen digitalen Bilddaten ein erster Winkel ermittelt wird, der die Lage des Merkmals in der Fahrzeugumgebung in Bezug auf das eigene Fahrzeug definiert. Zu einem späteren Zeitpunkt wird dann das Bildmerkmal erneut in den digitalen Bildern erkannt und ein zweiter Winkel ermittelt, wobei dieser sich in der Regel von dem ersten Winkel unterscheidet, da das Fahrzeug zwischen der ersten und der zweiten Aufnahme eine Bewegung vollzogen hat. Aus der Winkeländerung über die Zeit sowie der bekannten Navigationslösung lässt sich dann eine Merkmalsposition des Bildmerkmals in der Fahrzeugumgebung berechnen, die je nach bekannter Navigationslösung des eigenen Fahrzeuges absolut (beispielsweise GPS-Koordinaten) oder relativ zum eigenen Fahrzeug sein kann.
  • Denkbar ist aber auch, dass die Merkmalsposition bekannt ist, da es sich bei dem Bildmerkmal beispielsweise um sogenannte Landmarks handelt, deren fixe Position in einer Datenbank hinterlegt ist.
  • Ist die Position der Bildmerkmale in der Fahrzeugumgebung bekannt, so lässt sich aus der Bildposition der einzelnen Bildmerkmale eine Winkelinformation in Bezug auf das eigene Fahrzeug ableiten und durch eine Triangulation kann dann auf die eigene Position des Fahrzeuges zurückgeschlossen werden. Dadurch wird mithilfe eines optischen Navigationsverfahrens eine weitere Redundanz bei der autonomen Navigation geschaffen, die allein auf einer visuellen Auswertung der Fahrzeugumgebung basiert.
  • Bei der optischen Navigation wird eine Bewegung des Fahrzeuges (insbesondere hinsichtlich der Richtung) durch eine Bewegung der Bildobjekte innerhalb der aufgenommenen Bilder detektiert, so dass auch hier basierend auf einer Bildposition und insbesondere einer Verschiebung bzw. einer Bewegung der erkannten Bildobjekte zwischen zwei zeitlich aufeinanderfolgenden digitalen Bildern auf eine bewegungsbezogene Zustandsinformation des Fahrzeuges geschlossen werden kann. Optische Navigation ist beispielsweise visuelle Odometrie oder SLAM.
  • Die Genauigkeit eines optischen Navigationsverfahrens, insbesondere dann, wenn es auf Winkelinformationen beruht, korreliert dabei mit der Auflösung der Kamera sowie mit der Ausdehnung des Aufnahmebereiches (FOV-Field Of View). Mit zunehmender Auflösung der digitalen Kamera, d.h. mit Zunahme der Anzahl der Pixel sowie einer Verringerung eines Pixelabstandes, kann die Winkelauflösung in Bezug auf ein in den digitalen Bilddaten erkanntes Bildmerkmal erhöht werden, so dass die Genauigkeit in Bezug auf die Winkelinformation erhöht wird. Mit einer Vergrößerung des Aufnahmebereiches (FOV) kann darüber hinaus der Anteil der Fahrzeugumgebung, der für das optische Navigationsverfahren mithilfe der Kamera aufgenommen wird, vergrößert werden, wodurch ebenfalls die Genauigkeit des optischen Navigationsverfahrens verbessert wird, weil hierdurch mehr Bildmerkmale in den Bilddaten erkannt werden können, die einen großen Winkel zueinander aufweisen. Denn je dichter die Bildmerkmale zueinander in den Bilddaten angeordnet sind, desto schlechter wird eine Positionsbestimmung mithilfe einer Triangulation hieraus.
  • Das „Field of View“ (FoV) kann dabei bis auf 360° vergrößert werden, um möglichst viele Bildmerkmale erkennen zu können. Allerdings muss dann mit zunehmender Größe des FoV ein Kompromiss in Bezug auf die Auflösung gefunden werden, da mit zunehmender Größe des FoV die Auflösung in der Regel kleiner wird, was zu Ungenauigkeiten in der Berechnung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des Fahrzeuges führt. Denn je kleiner die Auflösung, desto schlechter die Winkelgenauigkeit bezüglich des Bildmerkmales.
  • Es ist daher Aufgabe der vorliegenden Erfindung ein verbessertes Verfahren und ein verbessertes System für ein optisches Navigationsverfahren anzugeben, mit dem die Genauigkeit bei der Bestimmung von positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des Fahrzeuges, insbesondere UAVs, verbessert werden kann.
  • Die Aufgabe wird mit dem Verfahren gemäß Anspruch 1 sowie einem Navigationssystem gemäß Anspruch 12 erfindungsgemäß gelöst.
  • Gemäß Anspruch 1 wird ein Verfahren zum automatischen Ermitteln von positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen mittels eines optischen Navigationsverfahrens durch ein optisches Navigationssystem des Fahrzeuges angegeben. Bei dem optischen Navigationsverfahren handelt es sich um ein Verfahren, bei dem mithilfe einer Aufnahme eines Teils der Fahrzeugumgebung eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges berechnet wird. Dies kann insbesondere die visuelle Odometrie und die Simultaneous Localization and Mapping Techniken einschließen.
  • Unter einer positions-, bewegungs- und/oder lagebezogenen Zustandsinformation eines Fahrzeuges wird dabei eine die Position, Bewegung und/oder die Lage/Orientierung des Fahrzeuges betreffende Zustandsinformation verstanden, mit der sich auf eine Position, Bewegung und/oder eine Lage/Orientierung des Fahrzeuges schließen lässt. Eine derartige positionsbezogene Zustandsinformation kann dabei beispielsweise eine Position des Fahrzeuges im Raum sein, beispielsweise durch Angabe eines Längengrades und eines Breitengrades und bei Flugobjekten ggf. zusätzlich noch die Höhe. Die positionsbezogene Zustandsinformation kann dabei absolut sein (innerhalb eines Weltkoordinatensystems) oder relativ sein (Fahrzeug stellt Ursprung seines eigenen Koordinatensystems). Eine solche positionsbezogene Zustandsinformation kann ggf. aber auch eine Positionsveränderung gegenüber einer Referenzposition sein oder eine Positionsangabe in Bezug auf eine solche Referenzposition sein. Eine bewegungsbezogene Zustandsinformation ist dabei eine die Bewegung des Fahrzeuges betreffende Bewegungsinformation, wie beispielsweise Geschwindigkeit, Richtung, Beschleunigung oder Bremsung. Eine lagebezogene Zustandsinformation kann bspw. die Raumlage des Fahrzeuges, bspw. in Bezug auf das Erdlot, sein oder die Orientierung des Fahrzeuges in Bezug auf seine Längsachse.
  • Diese positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen eignen sich dabei insbesondere zur Fusionierung mit bestehenden Navigationssystemen anderer Art, um so eine Ermittlungsredundanz aufzubauen, die Ergebnisse anderer Navigationssysteme zu stützen oder ggf. Detektionslücken mithilfe solcher aus dem optischen Navigationsverfahren stammenden positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen zu schließen.
  • Bei dem optischen Navigationsverfahren, wie sie in der Regel aus dem Stand der Technik bekannt sind, werden mithilfe mindestens einer Kamera kontinuierlich digitale Bilddaten der Fahrzeugumgebung aufgenommen. Digitale Bilddaten können dabei jene Bildinformationen sein, die zusammengesetzt ein Bild oder eine Bildsequenz bilden. Eine Bildsequenz ist dabei eine zeitliche Aneinanderreihung bzw. Abfolge von aufgenommenen Bildern. Dabei muss nicht die gesamte Fahrzeugumgebung mithilfe der Kamera aufgenommen werden, sondern nur ein Ausschnitt bzw. ein Teil der Fahrzeugumgebung, so dass sich zu einem bestimmten Zeitpunkt immer nur ein Teil der sichtbaren Hemisphäre mithilfe der Kamera digital erfassen lässt. Mithilfe einer Bildauswerteeinheit werden nun in den digitalen Bilddaten enthaltene Bildmerkmale erkannt, die als Umgebungsmerkmale in der Fahrzeugumgebung des Fahrzeuges liegen und von der Kamera beim Aufnehmen der digitalen Bilddaten aufgenommen wurden.
  • In einer Initialisierungsphase wird für jedes erkannte Bildmerkmal eine Merkmalsposition des im jeweiligen Bildmerkmal entsprechenden Umgebungsmerkmals in Bezug auf das Fahrzeug berechnet, was beispielsweise dadurch geschehen kann, dass ein Bildmerkmal in digitalen Bilddaten, die zu zwei aufeinanderfolgenden Aufnahmezeitpunkten aufgenommen wurden, erkannt und die Merkmalsposition dann in Abhängigkeit einer bestehenden Navigationslösung berechnet wird. Vorteilhafterweise kann dabei eine Veränderung der Bildposition des jeweiligen Bildmerkmals innerhalb des Aufnahmebereiches bezüglich zweier aufeinanderfolgenden Aufnahmezeitpunkte und einer bekannten Navigationslösung bzw. bekannten positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen berechnet werden, so dass in dieser Initialisierungsphase für die bekannten Bildmerkmale eine Merkmalsposition der Umgebungsmerkmale, die als Bildmerkmale in den digitalen Bilddaten enthalten und erkannt wurden, feststeht.
  • Die Ermittlung der Merkmalspositionen der erkannten Bildmerkmale kann in der Initialisierungsphase aber auch dadurch erreicht werden, dass die Merkmalspositionen der Bildmerkmale bekannt sind, und nur noch aus einer Datenbank ausgelesen werden müssen, da die Merkmalspositionen der Bildmerkmale beispielsweise in einem vorherigen Schritt bereits einmal berechnet wurden und abgespeichert wurden oder es sich bei den Umgebungsmerkmalen, die als Bildmerkmale in den digitalen Bildern erkannt wurden, um Landmarken handelt, die mithilfe der Bildauswerteeinheit erkannt und die entsprechende Positionen dieser Landmarken aus einer Datenbank ausgelesen werden.
  • In Abhängigkeit von den Merkmalspositionen der bekannten Bildmerkmale und deren jeweilige Bildposition innerhalb des Aufnahmebereiches lässt sich dann eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges ermitteln, was beispielsweise durch eine Triangulation und Rückprojektion möglich ist. Sind die Positionen der einzelnen Umgebungsmerkmale, die als Bildmerkmale in den digitalen Bildern erkannt wurden, bekannt, so lässt sich basierend auf Winkelinformationen der einzelnen Bildmerkmale, die sich aus der Bildposition innerhalb des Aufnahmebereiches der digitalen Bilddaten ergeben, die eigene Position des Fahrzeuges ableiten. Hierdurch wird es möglich, dass das Fahrzeug auch über bekanntes Terrain fliegen oder sich bewegen kann, und dennoch ein optisches Navigationsverfahren ausführen kann.
  • Erfindungsgemäß ist nun vorgesehen, dass während der Aufnahme der digitalen Bilddaten für das optische Navigationsverfahren wie vorstehend beschrieben die Aufnahmerichtung der mindestens einen Kamera durch Schwenken und/oder Neigen (Bewegen) der Kamera gegenüber dem Fahrzeug mittels einer Steuereinheit verändert wird, so dass in eine erste Aufnahmerichtung digitale Bilddaten eines Teils der Fahrzeugumgebung in einem ersten Aufnahmeteilbereich, innerhalb dessen wenigstens ein erstes Bildmerkmal enthalten ist, und in wenigstens eine zweite Aufnahmerichtung digitale Bilddaten eines Teils der Fahrzeugumgebung in einen zweiten Aufnahmeteilbereich, innerhalb dessen wenigstens ein zweites Bildmerkmal enthalten ist, durch die Kamera aufgenommen werden. Die erste Aufnahmerichtung mit dem ersten Aufnahmeteilbereich ist dabei von der zweiten Aufnahmerichtung mit dem zweiten Aufnahmeteilbereich verschieden, wodurch die Kamera mehrere verschiedene Aufnahmeteilbereiche innerhalb der gesamten Fahrzeugumgebung aufnehmen kann. Der Gesamtaufnahmebereich ist somit nicht mehr fest vorgegeben, wie dies bei fest installierten Kameras der Fall ist, sondern wird variabel in Aufnahmeteilbereiche innerhalb der Fahrzeugumgebung unterteilt, wodurch die aus dem Stand der Technik bekannten Nachteile insbesondere bei unbemannten Flugobjekten mit großer Höhe, überwunden werden können.
  • Der gesamte Bewegungsbereich der Kamera definiert dabei einen Neige- und Schwenkbereich, der dem gesamten Aufnahmebereich entspricht, wobei innerhalb des gesamten Aufnahmebereiches ein Aufnahmeteilbereich in Abhängigkeit von der Aufnahmerichtung und dem FoV der Kamera gebildet wird. Der gesamte Aufnahmebereich (definiert durch den Neige- und Schwenkbereich) kann dabei niemals vollständig zur selben Zeit aufgenommen werden.
  • Hierdurch wird es möglich, hochauflösende Kameras einzusetzen, die aufgrund ihrer hohen Auflösung eine sehr hohe Winkelgenauigkeit aufweisen, wodurch die Genauigkeit bei der Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation des Fahrzeuges erhöht werden kann. Außerdem kann die Genauigkeit in der Initialisierungsphase, bei der die Merkmalsposition der Bildmerkmale ermittelt werden, erhöht werden, was wiederum die Genauigkeit bei der Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation des Fahrzeuges erhöht. Insgesamt kann somit die Genauigkeit des optischen Navigationsverfahrens erhöht werden. Es wird somit auch möglich, bei konstanter Auflösung einer Kamera im Vergleich zum Stand der Technik einen größeren FoV zu erreichen.
  • Hierdurch wird es außerdem möglich, bei einer Kamera mit beliebiger Auflösung die Winkelauflösung durch ein kleines FoV zu erhöhen und gleichzeitig die Ausdehnung des FoV zu erhöhen.
  • Es können nunmehr auch Kameras verwendet werden, deren digitale Bildsensoren einen sehr geringen Pixelabstand aufweisen, wodurch eine hohe Winkelauflösung und somit in der Regel eine hohe Pixelanzahl möglich wird. Gleichzeitig wird jedoch der Aufnahmebereich verringert, so dass die Rechenleistung insgesamt nicht erhöht wird, wobei der verkleinerte Aufnahmebereich mit hoher Winkelauflösung durch die Veränderung der Aufnahmerichtung kompensiert wird und somit dennoch die im Schwenk- und Neigebereich der Kamera liegende Hemisphäre der Fahrzeugumgebung abgedeckt werden kann.
  • In einer vorteilhaften Ausführungsform werden die Merkmalspositionen der jeweiligen Bildmerkmale in Bezug auf das Fahrzeug weiterhin unter Berücksichtigung der jeweiligen Aufnahmerichtung berechnet, mit der digitalen Bilddaten in dem jeweiligen Aufnahmeteilbereich, in dem das jeweilige Bildmerkmale enthalten ist, aufgenommen wurde. Die Ablage des Bildmerkmales innerhalb der digitalen Bilddaten von der Bildmitte, die dann in den jeweiligen Dimensionen den Winkel darstellt, wird um die Ablage der Aufnahmerichtung von einer Referenzachse bzw. Bezugsachse, beispielsweise die Längsachse des Fahrzeuges, korrigiert, so dass sich insgesamt eine Bildposition in Bezug auf die Bezugsachse des Fahrzeuges ergibt. Dies kann beispielsweise dadurch geschehen, dass eine Rückkopplung des Schwenk- und/oder Neigezustandes der Kamera an das optische Navigationssystem erfolgt. Denkbar ist aber auch, dass mit einer weiteren Kamera zunächst sehr grob aufgelöst der gesamte Schwenk- und Neigebereich der veränderbaren Kamera erfasst wird, wobei der durch die Aufnahmerichtung definierte Aufnahmeteilbereich innerhalb der Gesamtaufnahme detektiert und dann die Verschiebung des Aufnahmeteilbereiches in den Gesamtaufnahmebereich detektiert wird.
  • In einer weiteren vorteilhaften Ausführungsform wird während der Aufnahme der digitalen Bilddaten die Brennweite eines Kameraobjektives der mindestens einen schwenk- und/oder neigbaren Kamera verändert, wodurch innerhalb des Aufnahmeteilbereiches in eine Aufnahmerichtung hereingezoomt und nach dem hereinzoomen wieder herausgezoomt werden kann. Dies ist beispielsweise besonders dann vorteilhaft, wenn das Fahrzeug ein Flugobjekt mit großer Höhe ist, so dass in Abhängigkeit von der Höhe eine Brennweite eingestellt wird, mit dem innerhalb des Aufnahmeteilbereichs hereingezoomt wird, wodurch die realen Abmessungen des Aufnahmeteilbereiches verkleinert werden. Hierdurch kann eine Erhöhung der Winkelauflösung erreicht werden, was insbesondere bei weit entfernten Umgebungsmerkmalen vorteilhaft ist.
  • In einer vorteilhaften Ausführungsform werden die digitalen Bilddaten des ersten Aufnahmeteilbereichs zu einem ersten Zeitpunkt und digitalen Bilddaten des zweiten Aufnahmeteilbereiches zu einem auf den ersten Zeitpunkt folgenden zweiten Zeitpunkt durch die Kamera aufgenommen, wobei in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt die Aufnahmerichtung der mindestens einen Kamera von dem ersten Aufnahmeteilbereich hin zu dem zweiten Aufnahmeteilbereich geschwenkt und/oder geneigt wird. Damit werden die Bildmerkmale zeitlich nacheinander durch die Kamera aufgenommen. Dabei ist es selbstverständlich denkbar, dass die Umgebungsmerkmale in der Fahrzeugumgebung so verteilt sind, dass jedes einem Umgebungsmerkmal entsprechenden Bildmerkmal in einem eigenen Aufnahmeteilbereich liegt. Die Kamera muss somit zwischen den einzelnen Aufnahmeteilbereichen hin und her schwenken und/oder neigen, um die einzelnen Aufnahmeteilbereiche entsprechend aufnehmen zu können.
  • Bezüglich dessen ist es vorteilhaft, wenn in der Zeitspanne zwischen dem ersten und dem wenigstens zweiten Zeitpunkt zusätzliche Positions- und/oder Bewegungsdaten des Fahrzeuges mittels Sensoren ermittelt werden, die nicht durch das optische Navigationssystem bereitgestellt werden. Derartige Positions- und/oder Bewegungsdaten können beispielsweise von einem GNSS oder von einem Inertialsensorsystem stammen, wodurch Positions- und/oder Bewegungsänderungen des Fahrzeuges in der Zeitspanne zwischen dem ersten und dem zweiten Zeitpunkt detektierbar sind.
  • Die positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen werden nun in Abhängigkeit von der Merkmalsposition des ersten Bildmerkmales und deren Bildpositionen im ersten Aufnahmeteilbereich, der Merkmalsposition des wenigstens zweiten Bildmerkmals und deren Bildpositionen im zweiten Aufnahmeteilbereich und der zusätzlichen Positions- und/oder Bewegungsdaten des Fahrzeuges in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt ermittelt, so dass Bewegungen des Fahrzeuges in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt sich nicht negativ auf die Genauigkeit bei der Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen auswirkt.
  • So ist es beispielsweise denkbar, dass in der Zeitspanne, die die Kamera für das Schwenken und/oder Neigen von dem ersten Aufnahmeteilbereich hin zum zweiten Aufnahmeteilbereich benötigt, Positions-, Bewegungs- und/oder Lageänderungen des Fahrzeuges aus den Positions-, Bewegungs- und/oder Lagedaten des Fahrzeuges berechnet werden, um so eine Positions-, Bewegungs- und/oder Lageänderung des Fahrzeuges innerhalb dieser Zeitspanne bzw. am Ende der Zeitspanne zwischen dem ersten und zweiten Zeitpunkt feststellen zu können. Basierend auf dieser Positions-, Bewegungs- und/oder Lageänderung des Fahrzeuges innerhalb dieser Zeitspanne lässt sich dann beispielsweise eine geschätzte Bildposition des ersten Bildmerkmales in dem ersten Aufnahmeteilbereich mit dem zweiten Zeitpunkt berechnen, so dass die geschätzte Bildposition des ersten Bildmerkmals in den ersten Aufnahmeteilbereich derjenigen Bildposition entspricht, als würde das erste Bildmerkmal in den ersten Aufnahmeteilbereich zum zweiten Zeitpunkt aufgenommen und erkannt werden. Hierdurch kann ein aus dem Schwenk- und/oder Neigezeitraum entstehender Navigationsfehler vermieden werden, der in dem Schwenken und/oder Neigen der Kamera von in dem ersten Aufnahmeteilbereich hin zum zweiten Aufnahmeteilbereich begründet liegt.
  • Denkbar ist selbstverständlich auch, dass basierend auf der Positions-, Bewegungs- und/oder Lageänderung des Fahrzeuges innerhalb der Zeitspanne zwischen dem ersten und dem zweiten Zeitpunkt eine geschätzte Bildposition des zweiten Bildmerkmals in dem zweiten Aufnahmeteilbereich für den ersten Zeitpunkt berechnet wird, so dass ausgehend von der Bildposition des aufgenommenen zweiten Bildmerkmals in dem zweiten Aufnahmeteilbereich die geschätzte Bildposition zum ersten Zeitpunkt rückprojiziert wird.
  • In beiden Fällen liegen dann zum jeweils zweiten Zeitpunkt die Bildpositionen der ersten und zweiten Bildmerkmale so vor, als würden sie zu dem jeweiligen Zeitpunkt gleichzeitig aufgenommen und erkannt werden.
  • Die Erfinder haben dabei erkannt, dass das Schwenken und/oder Neigen der Kamera von einem Aufnahmeteilbereich hin zum zweiten Aufnahmeteilbereich in einer Zeitspanne erfolgt, die mithilfe von Sensordaten aus einem Inertialsensorsystem oder anderen Sensorsystemen überbrückbar ist, so dass hier keine oder nur geringe Genauigkeitsverluste entstehen.
  • Selbstverständlich ist es denkbar, dass weitere dritte, vierte, fünfte usw. Aufnahmeteilbereiche mit jeweils verschiedenen Aufnahmerichtungen für das Verfahren verwendet werden, wobei auch hier zwischen den einzelnen Zeitpunkten, an denen die digitalen Bilddaten für den jeweiligen Aufnahmeteilbereich gemacht wurden, weitere Sensordaten im weiteren Verlauf ermittelt werden können. Der erste und zweite Aufnahmeteilbereich mit der ersten und zweiten Aufnahmerichtung ist dabei nicht abschließend oder einschränkend zu verstehen.
  • In einer weiteren vorteilhaften Ausführungsform wird innerhalb eines Schwenk- und/oder Neigebereiches der Kamera neue Bildmerkmale für die Durchführung des optischen Navigationsverfahrens gesucht, wobei die Kamera in eine Suchrichtung eines Aufnahmesuchbereiches geschwenkt oder geneigt wird, die in Abhängigkeit von den Aufnahmerichtungen der Aufnahmeteilbereiche bereits bekannter Bildmerkmale gewählt wird. So ist es vorteilhaft, wenn innerhalb von Aufnahmesuchbereichen neue Bildmerkmale gesucht werden, die einen großen Abstand in Bezug auf die Aufnahmeteilbereiche von bereits bekannten Bildmerkmalen haben. Dabei ist es ganz besonders vorteilhaft, wenn die Suchrichtung des Aufnahmesuchbereiches in Abhängigkeit von einer Varianz des Zustandes des Fahrzeuges gewählt wird. Damit wird die Suchrichtung auf jene Richtungen beschränkt, in die die größte Unsicherheit in Bezug auf die Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation vorhanden ist.
  • Die Erfindung wird anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
    • 1 - Schematische Darstellung des erfindungsgemäßen optischen Navigationssystems;
    • 2 - Darstellung einer Ausführungsform für die Berechnung.
  • 1 zeigt schematisch ein optisches Navigationssystem 1 das eine schwenk- und/oder neigbare Kamera 2 und eine damit verbundene Recheneinheit 3 zur Berechnung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen eines nicht dargestellten Fahrzeuges hat. Die Recheneinheit 3 weist eine Bildauswerteeinheit 4 auf, die mit der Kamera 2 signaltechnisch verbunden ist und zur Analyse der aufgenommenen Bilddaten ausgebildet ist. Die Bildauswerteeinheit ist des Weiteren mit einer Navigationseinheit 5 verbunden, die zum Berechnen der positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des Fahrzeuges ausgebildet ist.
  • Das optische Navigationssystem 1 kann dabei mit einem weiteren Navigationssystem 6 des Fahrzeuges verbunden oder Bestandteil dieses Navigationssystems 6 sein, wobei das Navigationssystem 6 mit einem GNSS-Sensor 7 zum Erfassen von Positions- , Bewegungs- und/oder Lagedaten mithilfe eines satellitengestützten Navigationssystems verbunden ist. Das Navigationssystem 6 ist darüber hinaus auch mit dem fahrzeuginternen Inertialsystem 8 verbunden, das im Ausführungsbeispiel der 1 in Form eines Fahrzeugbusses dargestellt ist. Das Inertialsystem 8 kann dabei auch mit dem optischen Navigationssystem 1 verbunden sein, wie später noch erläutert wird.
  • Das Navigationssystem 6 kann dabei so ausgebildet, dass es die Positions-, Bewegungs- und/oder Lagedaten des GNSS 7 sowie des Inertialsystems 8 und die positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des optischen Navigationssystems 1 miteinander fusioniert, um so bspw. autark und völlig automatisch ein unbemanntes Fahrzeug zu navigieren. Die positions-, bewegungs- und/oder lagebezogenen Zustandsinformationen des optischen Navigationssystems 1 können dabei bspw. dann genutzt werden, wenn das Fahrzeug auf andere Navigationslösungen gerade nicht zurückgreifen kann.
  • Zurückkommend auf das optische Navigationssystem 1, ist die Kamera 2 schwenk- und/oder neigbar ausgebildet, wobei im Ausführungsbeispiel der 1 ein Schwenken und Neigen der Kamera gegenüber einer Bezugsachse X dargestellt ist. Durch das Schwenken und/oder Neigen der Kamera 2, d.h. eine relative Bewegung gegenüber der Bezugsachse X, lassen sich innerhalb des Aufnahmebereiches 10 der Kamera 2 digitale Bilddaten in Form von Bildern oder Bildsequenzen aufnehmen. Der Aufnahmebereich 10 ist dabei auch gleichzeitig der Neige-/Schwenkbereich 20 der Kamera. Der tatsächliche Bereich, innerhalb dessen die Kamera zu einem Zeitpunkt digitale Bilddaten aufnehmen kann, ist indes jedoch kleiner als der Gesamtaufnahmebereich 10 bzw. der Neige-/Schwenkbereich 20, sodass innerhalb des Gesamtaufnahmebereiches 10 entsprechende Aufnahmeteilbereiche 11, 12, 13 entstehen, in denen zu einem Zeitpunkt digitale Bilddaten aufgenommen werden können, ohne das die Kamera geschwenkt und/oder geneigt werden muss. Sollen jedoch ausgehend von einem ersten Aufnahmeteilbereich 11 in einem zweiten Aufnahmeteilbereich 12 digitale Bilddaten aufgenommen werden, so muss die Kamera 2 von dem ersten Aufnahmeteilbereich 11 hin zu dem zweiten Aufnahmeteilbereich 12 geschwenkt und/oder geneigt werden. Mit Hilfe der Kamera 2 können jedoch ohne Schwenken und/oder Neigen zu einem Zeitpunkt keine digitalen Bilddaten in zwei unterschiedlichen Aufnahmeteilbereichen 11, 12, 13 aufgenommen werden.
  • In eine erste Aufnahmerichtung R1 wird im Ausführungsbeispiel der 1 ein erster Aufnahmeteilbereich 11 definiert, innerhalb dessen in der realen Umgebung des Fahrzeuges ein Umgebungsmerkmal liegt, das in den aufgenommenen digitalen Bilddaten innerhalb des ersten Aufnahmeteilbereiches 11 in Form eines ersten Bildmerkmales B1 enthalten ist. Im ersten Aufnahmeteilbereich 11 befindet sich das erkannte Bildmerkmal, das von der Bildauswerteeinheit 4 in den digitalen Bilddaten des ersten Aufnahmeteilbereichs 11 erkannt wurde, in der oberen linken Bildhälfte.
  • Anschließend wird die Kamera 2 zu dem gestrichelt dargestellten zweiten Aufnahmeteilbereich 12 geschwenkt, wobei in dem zweiten Aufnahmeteilbereich 12 das zu erkennende Bildmerkmal B2 in der rechten unteren Bildhälfte enthalten ist. In gleicher Art und Weise wird dann die Kamera wiederum geschwenkt bzw. geneigt, um so innerhalb des dritten Aufnahmeteilbereiches 13 ein entsprechendes drittes Bildmerkmal B3 zu erkennen.
  • Wurde beispielsweise durch eine vorangegangene Initialisierungsphase die Merkmalspositionen der Bildmerkmale B1 , B2 und B3 bezüglich ihrer realen Umgebungsmerkmale ermittelt, so kann nun anhand der Erkennung der einzelnen Bildmerkmale B1 , B2 und B3 eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation für das Fahrzeug ermittelt werden. Hierfür wird zunächst für jedes Bildmerkmal B1 , B2 und B3 die Bildposition ermittelt.
  • In Bezug auf den ersten Aufnahmeteilbereich 11 lässt sich die Bildposition B1 als Winkelablage zwischen einer Kamerabezugsachse (hier die Bildmitte) als Erstaufnahmerichtung R1 und der Sichtlinie zu dem Bildmerkmal B1 darstellten. Basierend auf einem Schwenk- und/oder Neigewinkel α1 der Kamera, der sich bei einem Schwenken und/oder Neigen der Kamera 2 zwischen der Bezugsachse X des Fahrzeuges und der ersten Aufnahmerichtung R1 der Kamera 2 einstellt, lässt sich dann zusammen mit der Winkelablage P1 dann ein tatsächlicher Winkel zwischen der Bezugsachse X des Fahrzeuges einerseits und der Sichtlinie zu dem Bildmerkmal B1 andererseits berechnen. Hierdurch ergibt sich sowohl in horizontaler als auch in vertikaler Ablage eine Bildposition des Bildmerkmales B1 im gesamten Aufnahmebereich 10 des Schwenk- und/oder Neigebereiches 20 der Kamera 2, so dass in Bezug auf das Fahrzeug feststellbar ist, unter welchem Winkel das Bildmerkmal B1 zu beobachten ist.
  • Analog hierzu wird die Bildposition des zweiten Bildmerkmales B2 und des dritten Bildmerkmales B3 ermittelt. Auch hier wird eine Winkelinformation P2 zwischen der zweiten Aufnahmerichtung R2 der Kamera 2 sowie der Sichtlinie zwischen Kamera und dem Bildmerkmal B2 berechnet, wobei sich aus einer Winkelablage der Aufnahmerichtung R2 (Kamerabezugsachse) zu der Bezugsachse X des Fahrzeuges dann ein entsprechender Winkel zu dem Bildmerkmal B2 in Bezug auf das gesamte Fahrzeug ermitteln lässt. In gleicher Art und Weise wird dann die Bildposition für das dritte Merkmal B3 ermittelt.
  • Selbstverständlich sind noch weitere Aufnahmeteilbereiche und Bildmerkmale denkbar, die jedoch aufgrund der Übersichtlichkeit zur Darstellung des Funktionsprinzips nicht dargestellt sind. Grundsätzlich reichen für eine Rückprojektion zur Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation, d.h. bspw. eine Ermittlung der eigenen Position, basierend auf der Position der den jeweiligen Bildmerkmalen B1 bis B3 entsprechenden Umgebungsmerkmale und den dazugehörigen Winkelangaben drei Bildmerkmale. Für die Genauigkeitserhöhung des Systems ist es jedoch vorteilhaft, wenn mehr als drei Bildmerkmale erkennbar sind. Bei weniger als drei Bildmerkmalen ist eine Positionsangabe mit einer gewissen Fehlervarianz möglich, wobei unter Kenntnis der Höhe des Flugobjektes, die sich in der Regel selten sprunghaft ändert, eine hinreichende Positionsangabe möglich.
  • Aus der Zusammenführung der ermittelten und berechneten Werte lässt sich dann eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation Z des Fahrzeuges berechnen durch Z = Projektion { P 1 + α 1 , P 2 + α 2 , P 3 + α 3 }
    Figure DE102016120196A1_0001
    berechnen. Durch die Verwendung einer schwenk- und/oder neigbaren Kamera 2 mit normaler Auflösung wird es möglich, eine hohe Winkelauflösung bei einem großen FoV zu erreichen. Dadurch kann der jeweilige Objektwinkel P1 bis P3 sehr hochauflösend erkannt werden, da das jeweilige Bildobjekt B1 bis B3 sehr präzise in den hochauflösenden digitalen Bilddaten detektierbar ist. Durch die gegenüber dem Schwenkbereich 20 verkleinerten, insbesondere stark verkleinerten Aufnahmeteilbereiche 11 bis 13 der Kamera 2 kann darüber hinaus die Gesamtpixelmenge auf ein für die Bildauswerteeinheit 4 in Echtzeit verrechenbaren Maß gehalten werden.
  • 2 zeigt stark vereinfacht den Fall, dass das optische Navigationssystem mit einem Inertialdatensystem 8 des Fahrzeuges verbunden ist, um so zeitliche Erkennungslücken kompensieren zu können. Zum Zeitpunkt T1 wird dabei das Bildmerkmal B1 des ersten Aufnahmeteilbereiches 11 (s. 1) erkannt und die entsprechenden Winkelinformation P1 berechnet. Zum Zeitpunkt T2 wird das zweite Bildmerkmal B2 im zweiten Aufnahmeteilbereich 12 erkannt und die entsprechende Winkelinformation P2 ermittelt. In der Zeitspanne zwischen T1 und T2, in der die Kamera 2 von dem ersten Aufnahmeteilbereich 11 zu dem zweiten Aufnahmeteilbereich 12 geschwenkt und/oder geneigt wurde, werden zusätzliche Inertialsensordaten S1 aus dem Inertialsensorsystem 8 des Fahrzeuges ermittelt, die Positions- und/oder Bewegungsdaten des Fahrzeuges innerhalb dieser Zeitspanne zwischen T1 und T2 enthalten.
  • Zu einem auf den Zeitpunkt T2 folgenden Zeitpunkt T3 wird dann das dritte Bildmerkmal B3 in dem dritten Aufnahmeteilbereich 13 ermittelt, wobei in der Zeitspanne zwischen T2 und T3 ebenfalls Inertialdaten aus dem Inertialdatensystem 8 abgegriffen werden.
  • Zum Zeitpunkt T3 liegen somit dem System entsprechend drei Winkelinformationen P1 bis P3 bezüglich der drei Bildmerkmale vor, aus denen sich dann die positions-, bewegungs- und/oder lagebezogene Zustandsinformation ermitteln lässt. Allerdings sind zum Zeitpunkt T3 die zum Zeitpunkt T1 und zum Zeitpunkt T2 ermittelten Winkelinformationen P1 und P2 bezüglich der zu den jeweiligen Zeitpunkten aufgenommenen digitalen Bilder veraltet, was sich in einer größeren Unsicherheit in den ermittelten positions-, bewegungs- und/oder lagebezogene Zustandsinformation niederschlägt.
  • Daher ist es vorteilhaft, dass basierend auf den Inertialsensordaten S1 und S2 und den Merkmalspositionen der Bildmerkmale B1 und B2 für die jeweiligen Zeitspannen die Winkelinformationen P1 und P2 weitergetragen werden und so geschätzte erste Winkelinformationen P1' und P2' ermittelt werden.
  • Die positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges wird sodann aus den geschätzten ersten Winkelinformation P1' (als Bildposition des ersten Bildmerkmales) und aus der geschätzten zweiten Winkelinformation P2' (als Bildposition des zweiten Bildmerkmales) und der Winkelinformationen P3 (als Bildposition des dritten Bildmerkmales) ermittelt, wodurch die Unsicherheit aufgrund der Zeitspanne zwischen T1 und T2 bzw. T3 verringert werden können.
  • Bezugszeichenliste
  • 1 -
    optisches Navigationssystem
    2 -
    Kamera
    3 -
    Recheneinheit
    4 -
    Bildauswärteeinheit
    5 -
    Navigationseinheit
    6 -
    Navigationssystem
    7 -
    GNSS
    8 -
    Inertialsensorsystem
    10 -
    Gesamtaufnahmebereich
    11 -
    erster Aufnahmeteilbereich
    12 -
    zweiter Aufnahmeteilbereich
    13 -
    dritter Aufnahmeteilbereich
    B1 -
    erstes Bildobjekt
    B2 -
    zweites Bildobjekt
    B3 -
    drittes Bildobjekt
    R1 -
    erste Aufnahmerichtung
    R2 -
    zweite Aufnahmerichtung
    R3 -
    dritte Aufnahmerichtung
    P1 -
    erste Winkelinformation bzw. Bildposition
    P2 -
    zweite Winkelinformation bzw. Bildposition
    P3 -
    dritte Winkelinformation bzw. Bildposition
    α1 -
    erster Kamerawinkel
    α2 -
    zweiter Kamerawinkel
    α3 -
    dritter Kamerawinkel
    20 -
    Schwenkbereich
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • A.J. Davison, et al.; „MonoSLAM: Real-Time Single Camera SLAM“ vol. 29, no. 6, pp. 1052-1067, 2007 [0005]

Claims (15)

  1. Verfahren zum automatischen Ermitteln einer positions-, bewegungs- und/oder lagebezogenen Zustandsinformation eines Fahrzeuges, wobei die positions-, bewegungs- und/oder lagebezogene Zustandsinformation mittels eines optischen Navigationsverfahrens durch ein optisches Navigationssystem (1) des Fahrzeuges ermittelt werden, bei dem - mittels mindestens einer Kamera (2) in einem Aufnahmebereich (10) digitale Bilddaten zumindest eines Teils der Fahrzeugumgebung aufgenommen werden, - durch eine Bildauswerteeinheit (4) wenigstens zwei in den digitalen Bilddaten enthaltene Bildmerkmale erkannt werden, die als in der Fahrzeugumgebung des Fahrzeuges liegende Umgebungsmerkmale von der Kamera (2) aufgenommen werden, - in einer Initialisierungsphase für jedes erkannte Bildmerkmal eine Merkmalsposition des dem jeweiligen Bildmerkmal entsprechenden Umgebungsmerkmals in Bezug auf das Fahrzeug ermittelt wird, und - nach der Initialisierungsphase aus den berechneten Merkmalspositionen der jeweiligen Bildmerkmale und deren jeweilige Bildposition (P1, P2, P3) innerhalb des Aufnahmebereiches dann eine positions-, bewegungs- und/oder lagebezogene Zustandsinformation des Fahrzeuges ermittelt wird, dadurch gekennzeichnet, dass die Aufnahmerichtung (R1, R2, R3) der mindestens einen Kamera (2) durch Schwenken und/oder Neigen der Kamera (2) gegenüber dem Fahrzeug mittels einer Steuereinheit verändert wird, so dass in eine erste Aufnahmerichtung (R1) digitale Bilddaten der Fahrzeugumgebung in einem ersten Aufnahmeteilbereich (11), innerhalb dessen ein erstes Bildmerkmal (B1) enthalten ist, und in wenigstens eine zweite Aufnahmerichtung (R2) digitale Bilddaten der Fahrzeugumgebung in wenigstens einem zweiten Aufnahmeteilbereich (12, 13), innerhalb dessen wenigstens ein zweites Bildmerkmal (B2) enthalten ist, durch die Kamera (2) aufgenommen werden, wobei die erste Aufnahmerichtung (R1) mit dem ersten Aufnahmeteilbereich (11) von der zweiten Aufnahmerichtung (R2) mit dem zweiten Aufnahmeteilbereich (12) verschieden ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in der Initialisierungsphase für jedes erkannte Bildmerkmal eine Merkmalsposition des dem jeweiligen Bildmerkmal entsprechenden Umgebungsmerkmals in Abhängigkeit von einer Veränderung der Bildposition (P1, P2, P3) des jeweiligen Bildmerkmals innerhalb des Aufnahmebereiches bezüglich zweier aufeinanderfolgender Aufnahmezeitpunkte und mindestens einer bekannten positions-, bewegungs- und/oder lagebezogenen Zustandsinformation berechnet wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Merkmalspositionen der jeweiligen Bildmerkmale in Bezug auf das Fahrzeug weiterhin unter Berücksichtigung der jeweiligen Aufnahmerichtung (R1, R2, R3) berechnet werden, mit der die digitalen Bilddaten in dem jeweiligen Aufnahmeteilbereich (11, 12, 13), in dem das entsprechende Bildmerkmal enthalten ist, aufgenommen wurde.
  4. Verfahren nach Anspruch einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass während der Aufnahme der digitalen Bilddaten die Brennweite eines Kameraobjektives der mindestens einen Kamera (2) verändert wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Brennweite des Kameraobjektives in Abhängigkeit von einer Flughöhe des als Flugobjekt ausgebildeten Fahrzeuges und/oder in Abhängigkeit von einer Entfernung eines als Bildmerkmal in dem jeweiligen Aufnahmeteilbereich (11, 12, 13) enthaltenen Umgebungsmerkmals bezüglich des Fahrzeuges verändert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass digitale Bilddaten des ersten Aufnahmeteilbereiches (11) zu einem ersten Zeitpunkt und digitale Bilddaten des zweiten Aufnahmeteilbereiches (12) zu einem auf den ersten Zeitpunkt folgenden zweiten Zeitpunkt durch die Kamera (2) aufgenommen werden, wobei in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt die Aufnahmerichtung der mindestens einen Kamera (2) von dem ersten Aufnahmeteilbereich (11) hin zu dem zweiten Aufnahmeteilbereich (12) geschwenkt und/oder geneigt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass in der Zeitspanne zwischen dem ersten und dem wenigstens zweiten Zeitpunkt zusätzliche Positions-, Bewegungs- und/oder Lagedaten des Fahrzeuges mittels Sensoren ermittelt werden, die nicht durch das optische Navigationssystem (1) bereitgestellt werden, wobei die positions-, bewegungs- und/oder lagebezogene Zustandsinformation in Abhängigkeit von der Merkmalsposition des ersten Bildmerkmales und deren Bildposition (P1, P2, P3) im ersten Aufnahmeteilbereich (11), der Merkmalsposition des wenigstens zweiten Bildmerkmales und deren Bildposition (P1, P2, P3) im zweiten Aufnahmeteilbereich (12) und der zusätzlichen Positions-, Bewegungs- und/oder Lagedaten des Fahrzeuges in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt ermittelt wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass eine Positions-, Bewegungs- und/oder Lageänderung des Fahrzeuges in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt basierend auf den ermittelten zusätzlichen Positions-, Bewegungs- und/oder Lagedaten des Fahrzeuges berechnet und eine geschätzte Bildposition (P1, P2, P3) des ersten Bildmerkmales in dem ersten Aufnahmeteilbereich (11) für den zweiten Zeitpunkt in Abhängigkeit von der berechneten Positions-, Bewegungs- und/oder Lageänderung berechnet wird, die der Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation als Bildposition (P1, P2, P3) des ersten Bildmerkmales zugrunde gelegt wird.
  9. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass eine Positions-, Bewegungs- und/oder Lageänderung des Fahrzeuges in der Zeitspanne zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt basierend auf den ermittelten zusätzlichen Positions-, Bewegungs- und/oder Lagedaten des Fahrzeuges berechnet und eine geschätzte Bildposition (P1, P2, P3) des zweiten Bildmerkmales in dem zweiten Aufnahmeteilbereich (11) für den ersten Zeitpunkt in Abhängigkeit von der berechneten Positions-, Bewegungs- und/oder Lageänderung berechnet wird, die der Ermittlung der positions-, bewegungs- und/oder lagebezogenen Zustandsinformation als Bildposition (P1, P2, P3) des zweiten Bildmerkmales zugrunde gelegt wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass innerhalb eines Schwenk- und/oder Neigebereiches (20) der Kamera (2) neue Bildmerkmale für die Durchführung des optischen Navigationsverfahrens gesucht werden, wobei die Kamera (2) in eine Suchrichtung eines Aufnahmesuchbereiches geschwenkt und/oder geneigt wird, die in Abhängigkeit von den Aufnahmerichtungen der Aufnahmeteilbereiche bereits bekannter Bildmerkmale gewählt wird.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Suchrichtung des Aufnahmesuchbereiches in Abhängigkeit von einer Varianz des Zustandes des Fahrzeuges gewählt wird.
  12. Navigationssystem mit einem optischen Navigationssystem (1) zum automatischen Ermitteln einer positions-, bewegungs- und/oder lagebezogenen Zustandsinformation eines Fahrzeuges, wobei das optische Navigationssystem (1) zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche eingerichtet ist und mindestens eine Kamera (2) aufweist, die schwenk- und/oder neigbar gegenüber dem Fahrzeug ausgebildet ist, eine mit der Kamera (2) verbundene Bildauswerteeinheit (4) und eine Steuereinheit zur Ansteuerung der Kamera (2) zum Schwenken und/oder Neigen der Kamera (2) hat.
  13. Navigationssystem nach Anspruch 11, dadurch gekennzeichnet, dass die schwenk- und/oder neigbare Kamera (2) ein Kameraobjektiv mit veränderbarer Brennweite hat, wobei die Brennweite durch die Steuereinheit einstellbar ist.
  14. Fahrzeug mit einem Navigationssystem, wobei das Navigationssystem unter anderem ein optisches Navigationssystem (1) nach einem der Ansprüche 11 oder 12 aufweist.
  15. Fahrzeug nach Anspruch 13, dadurch gekennzeichnet, dass das Fahrzeug ein Luftfahrzeug, insbesondere ein unbemanntes Luftfahrzeug ist.
DE102016120196.0A 2016-10-24 2016-10-24 Verfahren und Vorrichtung zum automatischen Ermitteln von positions- und/oder bewegungsbezogenen Zustandsinformationen eines Fahrzeuges Pending DE102016120196A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016120196.0A DE102016120196A1 (de) 2016-10-24 2016-10-24 Verfahren und Vorrichtung zum automatischen Ermitteln von positions- und/oder bewegungsbezogenen Zustandsinformationen eines Fahrzeuges

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016120196.0A DE102016120196A1 (de) 2016-10-24 2016-10-24 Verfahren und Vorrichtung zum automatischen Ermitteln von positions- und/oder bewegungsbezogenen Zustandsinformationen eines Fahrzeuges

Publications (1)

Publication Number Publication Date
DE102016120196A1 true DE102016120196A1 (de) 2018-04-26

Family

ID=61865860

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016120196.0A Pending DE102016120196A1 (de) 2016-10-24 2016-10-24 Verfahren und Vorrichtung zum automatischen Ermitteln von positions- und/oder bewegungsbezogenen Zustandsinformationen eines Fahrzeuges

Country Status (1)

Country Link
DE (1) DE102016120196A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110470279A (zh) * 2019-09-05 2019-11-19 上海伯镭智能科技有限公司 一种基于多旋翼无人机的集中式光伏电站电池组件缺陷巡检系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150163993A1 (en) * 2013-12-12 2015-06-18 Hexagon Technology Center Gmbh Autonomous gardening vehicle with camera
US20160291593A1 (en) * 2015-03-03 2016-10-06 PreNav, Inc. Scanning environments and tracking unmanned aerial vehicles

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150163993A1 (en) * 2013-12-12 2015-06-18 Hexagon Technology Center Gmbh Autonomous gardening vehicle with camera
US20160291593A1 (en) * 2015-03-03 2016-10-06 PreNav, Inc. Scanning environments and tracking unmanned aerial vehicles

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A.J. Davison, et al.; „MonoSLAM: Real-Time Single Camera SLAM" vol. 29, no. 6, pp. 1052-1067, 2007
Ben Moshe, B.; Shvalb, N.; Baadani, J.; Nagar, I.; Levy, H.: Indoor positioning and navigation for micro UAV drones — Work in progress. In: Proceedings on 2012 IEEE 27th Convention of Electrical and Electronics Engineers in Israel, Eilat, 2012, pp. 1-5. doi: 10.1109/EEEI.2012.6377021 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110470279A (zh) * 2019-09-05 2019-11-19 上海伯镭智能科技有限公司 一种基于多旋翼无人机的集中式光伏电站电池组件缺陷巡检系统

Similar Documents

Publication Publication Date Title
DE102012219834B4 (de) Spurverfolgungssystem
EP2981786B1 (de) Steuerung einer bildauslösung zur luftbilderfassung in nadir-ausrichtung für ein unbemanntes fluggerät
EP3596570B1 (de) Verfahren zum bestimmen eines pfades entlang eines objekts, system und verfahren zum automatischen inspizieren eines objekts
EP2126840A1 (de) Verfahren, vorrichtung und computerprogramm zur selbstkalibrierung einer überwachungskamera
DE102016214027A1 (de) Verfahren und System zum Erfassen von Landmarken in einem Verkehrsumfeld einer mobilen Einheit
DE102018203841A1 (de) System und verfahren zur fernbedienung eines bewegungskörpers
EP2060873B1 (de) Verfahren zur Stützung der Trägheitsnavigation eines Flugkörpers
EP2369296A2 (de) Navigationsverfahren für einen Flugkörper
EP2930466B1 (de) Handhaltbares Beobachtungsgerät mit einem digitalen Magnetkompass
EP2381208B1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
DE102007043534A1 (de) Anordnung zum Erfassen einer Umgebung
DE102018214874B3 (de) Verfahren und Anordnung zum Erzeugen einer mit Bildinformationen texturierten Umfeldkarte eines Fahrzeugs und Fahrzeug umfassend eine solche Anordnung
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
DE102010018144A1 (de) Verfahren zur automatischen Erzeugung eines dreidimensionalen Referenzmodells als Geländeinformation für eine bildgebende Einrichtung
DE102009054214B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Darstellung einer Umgebung
EP2409174B1 (de) Verfahren und einrichtung zum ermitteln von aspektwinkelverläufen
EP3584536B1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE102020133092A1 (de) Positionsschätzungseinrichtung und positionsschätzungsverfahren
DE102016120196A1 (de) Verfahren und Vorrichtung zum automatischen Ermitteln von positions- und/oder bewegungsbezogenen Zustandsinformationen eines Fahrzeuges
DE102014117277B4 (de) Trägersystem
AT523556A1 (de) Verfahren zur Bildkorrektur
DE102011054379B4 (de) Verfahren und Vorrichtung zur Ermittlung einer Positionsinformation
WO2002097371A1 (de) Verfahren und vorrichtung zur autonomen navigation von satelliten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication