DE102016106707A1 - Flugzeug mit mehreren Umgebungskameras - Google Patents

Flugzeug mit mehreren Umgebungskameras Download PDF

Info

Publication number
DE102016106707A1
DE102016106707A1 DE102016106707.5A DE102016106707A DE102016106707A1 DE 102016106707 A1 DE102016106707 A1 DE 102016106707A1 DE 102016106707 A DE102016106707 A DE 102016106707A DE 102016106707 A1 DE102016106707 A1 DE 102016106707A1
Authority
DE
Germany
Prior art keywords
cameras
detection system
aircraft
plane
ambient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016106707.5A
Other languages
English (en)
Other versions
DE102016106707B4 (de
Inventor
Franz Andert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102016106707.5A priority Critical patent/DE102016106707B4/de
Publication of DE102016106707A1 publication Critical patent/DE102016106707A1/de
Application granted granted Critical
Publication of DE102016106707B4 publication Critical patent/DE102016106707B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0078Surveillance aids for monitoring traffic from the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Astronomy & Astrophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein Flugzeug (1) weist mehrere Umgebungskameras (7) zum Abbilden eines in der Umgebung des Flugzeugs (1) befindlichen Objekts aus mehreren Richtungen auf. Die Umgebungskameras (7) sind in Relativpositionen und Relativausrichtungen zueinander angeordnet. Ein mehrteiliges Erfassungssystem erfasst die Relativpositionen und die Relativausrichtungen der Umgebungskameras (7). Jede der Umgebungskameras (7) ist starr mit einem Teil (13) des Erfassungssystems gekoppelt.

Description

  • TECHNISCHES GEBIET DER ERFINDUNG
  • Die Erfindung bezieht sich auf ein Flugzeug mit mehreren Umgebungskameras zum Abbilden eines in der Umgebung des Flugzeugs befindlichen Objekts aus mehreren Richtungen, wobei die Umgebungskameras in Relativpositionen und Relativausrichtungen zueinander angeordnet sind. Mit anderen Worten umfasst das Flugzeug eine Stereo- oder Multikameraanordnung aus den Umgebungskameras auf, die es bei genauer Kenntnis der Relativpositionen und Relativausrichtungen der Umgebungskameras erlaubt, den Ort eines mit den Umgebungskameras abgebildeten Objekts gegenüber dem Flugzeug zu bestimmen. Auf diese Weise können insbesondere andere Flugzeuge erfasst werden, um potentielle Luft-Luft-Kollisionen zu erkennen und zu vermeiden.
  • STAND DER TECHNIK
  • Technologien zur Erkennung und Vermeidung von potentiellen Luft-Luft-Kollisionen sind unter anderem für die Automatisierung von Flugzeugen, wie beispielsweise unbemannten Flugzeugen (englisch: Unmanned Aerial Vehicles: UAV) erforderlich. Problematisch ist dabei die Detektion und Ortung nicht-kooperativer Flugzeuge, die ihre Position nicht aktiv übermitteln, von einem anderen Flugzeug aus. Derartige nicht kooperative Flugzeuge müssen mit Sensoren detektiert werden. Um dabei von Bodeninfrastruktur und luftgestützten Hilfssystemen, wie beispielsweise AWACS, unabhängig zu sein, muss das jeweilige andere Flugzeug die entsprechenden Sensoren an Bord aufweisen. Üblich ist die Verwendung von Radar, welches jedoch aufgrund von Größe, Gewicht und Energieverbrauch für kleine Flugzeuge, weil beispielsweise taktische UAV, nur bedingt geeignet ist. Ein weiterer Nachteil von Radar ist die Verwendung eines aktiven Sensors, der ein auch von dem jeweils zu detektierenden Flugzeug detektierbares Signal ausstrahlt.
  • Es sind auch kamerabasierte Sensoren zur Detektion und Positionsbestimmung anderer Flugzeuge bekannt und untersucht worden. Der Fokus lag hierbei auf der Verwendung von Stereokameraanordnungen für den Nahbereich < 100 m und monokularer Kameras für die Detektion und Positionsbestimmung entfernterer Flugzeuge. Je nach Größe des zu detektierenden Flugzeugs und des Kamerasystems des detektierenden Flugzeugs können Flugzeuge auf mehrere Kilometer gesichtet werden. Die Vermessung der Entfernung ist jedoch nur über eine bekannte Größenordnung des zu detektierenden Flugzeugs und entsprechend mit nur geringer Genauigkeit möglich. Sie erfolgt daher regelmäßig in Kombination mit Radar. Messungen von Entfernungen über 100 m durch Stereotriangulation erfolgen nicht, weil die effektive Reichweite der Stereotriangulation bei typischen Kameraabständen von maximal 1 m wesentlich geringer ist als die Detektionsreichweite der einzelnen Kameras. Zudem nimmt die Messgenauigkeit mit der Entfernung quadratisch ab. Bei geringeren Entfernungen, wie beispielsweise automatischen Kraftfahrzeugen werden Stereokamerasysteme jedoch zur Kollisionserkennung eingesetzt.
  • Aus der DE 40 29 306 A1 ist eine Vorrichtung zur Außenbeobachtung von Flugzeugen bekannt. Die Vorrichtung zur Beobachtung von Teilen eines Flugzeugs ist im Bereich einer Außenwandung des Flugzeugs angeordnet und weist mindestens eine Kamera auf. Eine die Kamera tragende Befestigung besitzt dabei einen der Außenwandung zugewandten Fuß, in dessen Bereich eine eine vorgebbare Positionierung im Bereich der Außenwandung zulassende Fixierung angeordnet ist. Die bekannte Vorrichtung wird insbesondere verwendet, um während der Durchführung von Flugversuchen optische Veränderungen im Bereich einer Außenhaut des Flugzeugs festzustellen oder Strömungsbeobachtungen durchzuführen. Die Vorrichtung ersetzt so ein Begleitflugzeug.
  • Aus der DE 10 2011 085 087 A1 sind ein Verfahren und eine Vorrichtung zur Bestimmung der relativen äußeren Orientierung von mindestens zwei Bildaufnahmen bekannt. Aus Luft- und Satellitenbildern, die dieselbe Szene aus unterschiedlichen Perspektiven abbilden, d. h. sogenannten Stereobildern, lassen sich automatisch digitale Oberflächenmodelle oder Geländemodelle erstellen. Voraussetzung hierfür ist eine hochgenaue relative äußere Orientierung der beteiligten Bilder. Zur Ermittlung dieser äußeren Orientierung kann eine indirekte Georeferenzierung über Passpunkte in den Einzelbildern oder eine direkte Georeferenzierung erfolgen, die die absolute äußere Orientierung der die Bilder aufnehmenden Kameras bestimmt. Dazu erfolgt beispielsweise eine Positionsbestimmung über das Global Navigation Satellite System (GNSS) und eine Orientierungsmessung mit Hilfe von Inertial Measurement Units (IMU) und Sternsensoren. Die indirekte und die direkte Georeferenzierung können auch zu einer integrierten Georeferenzierung kombiniert werden. Die DE 10 2011 058 087 A1 beschreibt die Ermittlung der relativen äußeren Orientierung aus einem Bündelblockausgleich unter Verwendung von Pseudo-Passpunkten der einzelnen Bilder. Die Verwendung von Passpunkten oder Pseudo-Passpunkten ist jedoch zur Bestimmung der äußeren Orientierung von Bildern, die mit zwei Umgebungskameras eines Flugzeugs aufgenommen werden, wegen des Fehlens ausgezeichneter Punkte am im Wesentlichen konturlosen Himmel ungeeignet.
  • AUFGABE DER ERFINDUNG
  • Der Erfindung liegt die Aufgabe zugrunde, ein Flugzeug mit mehreren Umgebungskameras zum Abbilden eines in der Umgebung des Flugzeugs befindlichen Objekts aus mehreren Richtungen, wobei die Umgebungskameras in Relativpositionen und Relativausrichtungen zueinander angeordnet sind, aufzuzeigen, das für eine Detektion und Ortung anderer Flugzeuge zur Kollisionsvermeidung durch Auswertung der Bilder der Umgebungskameras besonders geeignet ist.
  • LÖSUNG
  • Erfindungsgemäß wird die Aufgabe der Erfindung durch ein Flugzeug mit den Merkmalen der unabhängigen Patentanspruchs 1 gelöst. Die unabhängigen Patentansprüche betreffen bevorzugte Ausführungsformen des erfindungsgemäßen Flugzeugs.
  • BESCHREIBUNG DER ERFINDUNG
  • Ein erfindungsgemäßes Flugzeug mit mehreren Umgebungskameras zum Abbilden eines in der Umgebung des Flugzeugs befindlichen Objekts aus mehreren Richtungen, wobei die Umgebungskameras in Relativpositionen und Relativausrichtungen zueinander angeordnet sind, umfasst ein die Relativpositionen und die Relativausrichtungen der Umgebungskameras erfassendes mehrteiliges Erfassungssystem, wobei jede der Umgebungskameras starr mit einem Teil des Erfassungssystems gekoppelt ist.
  • Die Genauigkeit die bei der Ortung weiter entfernte Flugzeuge mittels Stereotriangulation erreicht werden kann, hängt linear von dem seitlichen Abstand der Umgebungskameras ab. Wenn dieser seitliche Abstand maximiert wird, kommen die Umgebungskameras in Bereiche des Flugzeugs, die relativ weichelastisch aneinander abgestützt sind und die unter aerodynamischen Lasten auf das Flugzeug Lage- und Richtungsänderungen erfahren. Damit ändern sich auch die Relativpositionen und Relativausrichtungen der Umgebungskameras.
  • Bei der vorliegenden Erfindung wird nicht versucht, die Relativpositionen und die Relativausrichtungen der Umgebungskameras trotzdem zu fixieren, indem das Flugzeug zwischen den Bereichen, in denen die Umgebungskameras angebracht sind, ausgesteift wird. Vielmehr werden die Lageänderungen und Richtungsänderungen dieser Bereiche hingenommen, aber mit Hilfe des Erfassungssystems für die Relativpositionen und für die Relativausrichtungen der Umgebungskameras erfasst. So können den zu einem Zeitpunkt mit den Umgebungskameras aufgenommenen Bildern bestimmte Relativpositionen und Relativausrichtungen der Umgebungskameras zugeordnet und bei der Auswertung der Bilder berücksichtigt werden. Die dann in der Stereotriangulation erreichbare Genauigkeit bei der Ortung anderer Flugzeuge wird so durch die auftretenden Lageänderungen und Richtungsänderungen der Umgebungskameras nicht beeinträchtigt. Vielmehr wird ein erheblicher Genauigkeitszuwachs erzielt, weil der seitliche Abstand der Umgebungskameras gegenüber dem üblichen Abstand einer Stereokameraanordnung von maximal einem Meter erheblich, d. h. bis zur Spannweite des jeweiligen Flugzeugs erhöht werden kann.
  • Die vorliegende Erfindung beschränkt sich jedoch nicht allein darauf, irgendein Erfassungssystem für die Relativpositionen und die Relativausrichtungen der Umgebungskameras vorzuschlagen. Vielmehr lehrt sie, ein solches Erfassungssystem für die Relativpositionen und die Relativausrichtungen der Umgebungskameras einzusetzen, bei dem jede der Umgebungskameras starr mit einem Teil des Erfassungssystems gekoppelt ist.
  • Konkret kann der Teil des Erfassungssystems, mit dem mindestens eine der Umgebungskameras starr gekoppelt ist, eine Messkamera umfassen. Diese Messkamera kann einen an einem anderen Ort des Flugzeugs angeordneten Teil des Erfassungssystems abbilden, welcher ein Muster von den mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern umfasst. Lageänderungen der Messkamera gegenüber diesem Muster bzw. dem anderen Ort des Flugzeugs, an dem das Muster angebracht ist, spiegeln sich in Änderungen der Orte wieder, an denen die Marker mit der Kamera abgebildet werden. Anders gesagt kann die Relativlage der Messkamera gegenüber dem Muster und damit auch der starr mit der Messkamera verbundenen Umgebungskamera gegenüber dem Muster durch einfache Bildverarbeitung der mit der Messkamera aufgenommenen Bilder des Musters bestimmt werden.
  • Der das Muster umfassende Teil des Erfassungssystems, den die mindestens eine der Umgebungskameras abbildet, oder ein damit starr verbundener weiterer Teil des Erfassungssystems, der ein weiteres Muster von in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern umfasst, kann von einer weiteren Messkamera abgebildet werden, die starr mit einer anderen der Umgebungskameras gekoppelt ist. Die mit den jeweiligen Umgebungskameras starr gekoppelten Messkameras betrachten dann dasselbe Muster oder starr miteinander verbundene Muster des Erfassungssystems. Das bzw. die starr miteinander verbundenen Muster stellen damit ein Bezugssystem bereit, demgegenüber die Relativpositionen und der Relativlagen der Umgebungskameras mit Hilfe der Bilder der ihnen zugeordneten Messkameras bestimmt werden können. Damit sind auch die Relativpositionen und Relativausrichtungen der Umgebungskameras zueinander bestimmbar.
  • Der Teil des Erfassungssystems, mit dem mindestens eine der Umgebungskameras starr gekoppelt ist, kann umgekehrt ein Muster von in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern umfassen, das von einer an einem anderen Ort des Flugzeugs angeordneten Messkamera des Erfassungssystems abgebildet wird. Dann kann die Messkamera, die das Muster abbildet, oder eine damit starr verbundene weitere Messkamera des Erfassungssystems ein weiteres Muster von in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern abbilden, das von dem Teil des Erfassungssystems umfasst ist, mit welchem eine anderer der Umgebungskameras starr gekoppelt ist. In diesem Fall bildet die Messkamera oder bilden die starr miteinander verbundenen Messkameras das Bezugsystem aus, dem gegenüber die Lage der Muster bzw. der damit starr gekoppelten Umgebungskameras erfasst wird. Diese Ausführungsform des erfindungsgemäßen Flugzeugs hat den Vorteil, dass nicht die aktiven Messkameras sondern nur die passiven Muster starr an die Umgebungskameras gekoppelt werden müssen.
  • Grundsätzlich ist es auch möglich, dass die Messkamera, die das Muster abbildet, welches mit der mindestens einen der Umgebungskameras starr gekoppelt ist, ihrerseits mit einem Teil des Erfassungssystems starr gekoppelt ist, das ein weiteres Muster von in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern umfasst und das von einer Messkamera abgebildet wird, die starr mit einer anderen der Umgebungskameras gekoppelt wird. Hierdurch ergibt sich jedoch ein unsymmetrischer Aufbau des Erfassungssystems.
  • Damit die Bilder der Messkameras direkt in Bezug auf die Relativpositionen und Relativausrichtungen auswertbar sind, unter denen die Umgebungskameras zueinander angeordnet sind, wenn diese ihre Bilder aufzeichnen, weist das erfindungsgemäße Flugzeug vorzugsweise eine Synchronisierungseinrichtung auf, die die Umgebungskameras und die Messkameras bezüglich ihrer Bildaufnahmezeiten miteinander synchronisiert. Das heißt, die Bilder aller Umgebungskameras und aller Messkameras werden gleichzeitig aufgenommen, so dass die Bilder der Messkameras die Relativpositionen und Relativausrichtungen der Umgebungskameras zu dem Zeiten anzeigen, zu denen diese ihre Bilder des in der Umgebung des Flugzeugs befindlichen Objekts aufgenommen haben.
  • Alternativ zu der Ausführungsform des Erfassungssystems mit Messkameras und Mustern aus in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern kann das Erfassungssystem lasergestützt sein. So kann der Teil des Erfassungssystems, mit dem mindestens eine der Umgebungskameras starr gekoppelt ist, einen Laser und/oder einen Laserlichtreflektor und/oder einen Laserlichtdetektor umfassen.
  • In noch einer anderen Ausführungsform ist das Erfassungssystem mit inertialen Messsystemen ausgebildet. D. h. jede der Umgebungskameras kann starr mit einer IMU gekoppelt sein. In Verbindung mit den durch die Struktur des Flugzeugs gegebenen Beschränkungen hinsichtlich der möglichen Relativlagen und Relativausrichtungen der Umgebungskameras können diese Relativpositionen und Relativausrichtungen der Umgebungskameras auch über längere Zeiträume hinweg mit hoher Genauigkeit aus den Signalen der IMU bestimmt werden.
  • Je nach den Anforderungen an die bei der Bestimmung der Relativposition und Relativausrichtungen angestrebten Genauigkeit kann es auch sinnvoll sein, dass das Erfassungssystem sowohl Messkameras und damit erfasste Muster aus in mindestens zwei Raumrichtungen angeordneten optischen Markern umfasst als auch lasergestützt und/oder inertial ausgebildet ist.
  • Wie bereits angedeutet wurde, können bei dem erfindungsgemäßen Flugzeug die Kameras einen maximalen Abstand zueinander aufweisen, ohne dass eine genaue Ortung anderer Flugzeuge durch die damit zwangsläufig verbundene weichelastische Abstützung der Umgebungskameras aneinander und die in Folge von aerodynamischen Lasten auftretenden Relativbewegungen der Umgebungskameras zueinander unmöglich würde. Vielmehr wird bei dem erfindungsgemäßen Flugzeug trotz dieser Relativbewegungen der maximierte seitliche Abstand der Kameras für eine Maximierung der Genauigkeit bei der Ortung anderer Flugzeuge genutzt. Konkret können zwei der Umgebungskameras an eine Spannweite des Flugzeugs voneinander entfernt liegenden Tragflügelspitzen angeordnet und dabei zumindest im Wesentlichen in Flugrichtung ausgerichtet sein. Dann ist es bevorzugt, wenn die Umgebungskameras jeweils mit Mustern aus in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern starr gekoppelt sind, die mit zwei starr miteinander verbundenen Messkameras abgebildet werden, die an oder in einem Seitenleitwerk des Flugzeugs angeordnet sind. Für die relevante Erfassung der Relativpositionen und Relativausrichtungen der Umgebungskameras ergeben sich so gute geometrische Voraussetzungen.
  • Die Anzahl der Umgebungskameras kann genau zwei sein. Es können aber auch weitere Umgebungskameras vorgesehen werden. Beispielsweise kann eine weitere Umgebungskamera in der zuletzt beschriebenen bevorzugten Ausführungsform des Flugzeugs starr mit den Messkameras verbunden an oder in dem Seitenleitwerk angeordnet und ebenfalls im Wesentlichen in Flugrichtung ausgerichtet sein.
  • Die Umgebungskameras können nicht nur nach vorne sondern auch in andere Richtungen ausgerichtet sein, z. B. zur Seite, nach hinten, nach oben, nach unten, oder schräg. Je nach Anwendung sind auch nichtparallele Ausrichtungen der Umgebungskameras möglich.
  • Bei dem erfindungsgemäßen Flugzeug kann es sich insbesondere um ein Flugzeug handeln, das auf Basis der Bilder der Umgebungskameras automatisch gesteuert wird. Speziell kann es sich um ein unbemanntes automatisch gesteuertes Flugzeug handeln.
  • Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den Patentansprüchen, der Beschreibung und den Zeichnungen. Die in der Beschreibung genannten Vorteile von Merkmalen und von Kombinationen mehrerer Merkmale sind lediglich beispielhaft und können alternativ oder kumulativ zur Wirkung kommen, ohne dass die Vorteile zwingend von erfindungsgemäßen Ausführungsformen erzielt werden müssen. Ohne dass hierdurch der Gegenstand der beigefügten Patentansprüche verändert wird, gilt hinsichtlich des Offenbarungsgehalts der ursprünglichen Anmeldungsunterlagen und des Patents Folgendes: weitere Merkmale sind den Zeichnungen – insbesondere den dargestellten Geometrien und den relativen Abmessungen mehrerer Bauteile zueinander sowie deren relativer Anordnung und Wirkverbindung – zu entnehmen. Die Kombination von Merkmalen unterschiedlicher Ausführungsformen der Erfindung oder von Merkmalen unterschiedlicher Patentansprüche ist ebenfalls abweichend von den gewählten Rückbeziehungen der Patentansprüche möglich und wird hiermit angeregt. Dies betrifft auch solche Merkmale, die in separaten Zeichnungen dargestellt sind oder bei deren Beschreibung genannt werden. Diese Merkmale können auch mit Merkmalen unterschiedlicher Patentansprüche kombiniert werden. Ebenso können in den Patentansprüchen aufgeführte Merkmale für weitere Ausführungsformen der Erfindung entfallen.
  • Die in den Patentansprüchen und der Beschreibung genannten Merkmale sind bezüglich ihrer Anzahl so zu verstehen, dass genau diese Anzahl oder eine größere Anzahl als die genannte Anzahl vorhanden ist, ohne dass es einer expliziten Verwendung des Adverbs "mindestens" bedarf. Wenn also beispielsweise von einer Messkamera die Rede ist, ist dies so zu verstehen, dass genau eine Messkamera, zwei Messkameras oder mehr Messkameras vorhanden sind. Die in den Patentansprüchen angeführten Merkmale können durch andere Merkmale ergänzt werden oder die einzigen Merkmale sein, die das jeweilige Erzeugnis aufweist.
  • Die in den Patentansprüchen enthaltenen Bezugszeichen stellen keine Beschränkung des Umfangs der durch die Patentansprüche geschützten Gegenstände dar. Sie dienen lediglich dem Zweck, die Patentansprüche leichter verständlich zu machen.
  • KURZBESCHREIBUNG DER FIGUREN
  • Im Folgenden wird die Erfindung anhand von in den Figuren dargestellten bevorzugten Ausführungsbeispielen weiter erläutert und beschrieben.
  • 1 zeigt schematisch eine erste Ausführungsform des erfindungsgemäßen Flugzeugs mit zwei Umgebungskameras an Tragflügelspitzen und Messkameras an einem Seitenleitwerk des Flugzeugs.
  • 2 zeigt eine zweite Ausführungsform des erfindungsgemäßen Flugzeugs ebenfalls mit zwei Umgebungskameras an den Tragflügelspitzen und hier zwei Messkameras am Rumpf.
  • 3 zeigt eine weitere Ausführungsform des erfindungsgemäßen Flugzeugs ebenfalls mit zwei Umgebungskameras an den Tragflügelspitzen, die hier jeweils starr mit einer Messkamera gekoppelt sind; und
  • 4 zeigt noch eine weitere Ausführungsform des erfindungsgemäßen Flugzeugs wieder mit zwei Umgebungskameras an den Tragflügelspitzen, die hier jeweils mit einem inertialen Messsystem starr gekoppelt sind.
  • FIGURENBESCHREIBUNG
  • Das in 1 illustrierte Flugzeug 1 weist einen Rumpf 2, zwei Tragflügel 3, ein Höhenleitwerk 4 und ein Seitenleitwerk 5 auf. An Tragflügelspitzen 6 der Tragflügel 3 sind zwei im Wesentlichen parallel zueinander in Flugrichtung des Flugzeugs 1 nach vorne ausgerichtete Umgebungskameras 7 angeordnet, um ein vor dem Flugzeug 1 liegendes, in 1 nicht dargestelltes Objekt aus unterschiedlichen Richtungen abzubilden. Damit ist eine Bestimmung der Lage des Objekts vor dem Flugzeug 1 durch Stereotriangulation möglich. Die bei dieser Stereotriangulation erreichbare Genauigkeit ist wegen des großen seitlichen Abstands der Umgebungskameras 6 von der vollen Spannweite des Flugzeugs 1 groß, so dass auch andere Flugzeuge in größerer Entfernung von dem Flugzeug genau geortet und in Hinblick auf eine mögliche Kollision verfolgt werden können. Diese große Genauigkeit kann aber nur realisiert werden, wenn die Relativpositionen und Relativausrichtungen der Umgebungskameras 6 untereinander und möglichst auch zum Rumpf 2 des Flugzeugs 1 bekannt sind. Dabei ist zu berücksichtigen, dass diese Relativpositionen und Relativausrichtungen nicht fest sind, sondern sich wegen der vergleichsweise weichelastischen Abstützung der Umgebungskameras 6 über das Flugzeug 1 aneinander im Flug des Flugzeugs 1 durch unterschiedliche aerodynamische Lasten auf das Flugzeug 1 erheblich ändern. Um die große potentielle Genauigkeit bei der Stereotriangulation zu realisieren, müssen daher die aktuellen Relativpositionen und Relativausrichtungen der Umgebungskameras 6 für den Zeitpunkt bestimmt werden, zu dem sie ihre Bilder des vor dem Flugzeug 1 liegenden Objekts aufnehmen. Zu diesem Zweck ist mit jeder der Umgebungskameras 6 ein Muster 8 aus in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern 9 starr verbunden. Bei den optischen Markern 9 kann es sich um schwarz-weiße oder farbige Markierungspunkte oder auch um LED handeln. Die genaue Ausbildung der optischen Marker 9 ist auf Messkameras 10 abgestimmt, die hier am Seitenleitwerk 5 des Flugzeugs 1 angeordnet sind und die hier jeweils eines der Muster 8 abbilden. Die Messkameras 10 sind durch eine gemeinsame Halterung 11 starr miteinander verbunden. Aus den Bildern der Messkameras 10 lassen sich die Relativpositionen und Relativausrichtungen der Muster 8 und damit der Umgebungskameras 7 bestimmen. Wenn die Messkameras 10 daher ihre Bilder zu demselben Zeitpunkt aufnehmen, zu dem auch die Umgebungskameras 7 ihre Bilder aufnehmen, können die Bilder der Messkameras 10 verwendet werden, um die für die Auswertung der Bilder der Umgebungskameras 7 notwendigen Informationen über die Relativposition und Relativausrichtung der Umgebungskameras 7 bereitzustellen. Damit die Bilder von den Umgebungskameras 7 und den Messkameras 10 zeitgleich aufgenommen werden, ist in dem Flugzeug 1 eine Synchronisierungseinrichtung 12 vorgesehen, die die Umgebungskameras 7 und die Messkameras 10 drahtlos oder drahtgebunden mit geeigneten Synchronisierungs- oder Triggersignalen ansteuert. Die Messkameras 10 und die Auswertung ihrer Bilder der Muster 8 sind nicht aufwändig, da sich die Muster 8 an den Tragflügelspitzen 6 nur begrenzt gegenüber dem Seitenleitwerk 5 verlagern können und da die optischen Marker 9 in den Mustern 8 gezielt so angeordnet werden können, dass alle möglichen Verlagerungen zu signifikanten Verschiebungen der Abbilder der Marker 9 in den Bildern der Messkameras 10 führen. Die Anordnung der Messkameras 10 an dem Seitenleitwerk 8 ermöglicht eine einfache starre Verbindung der Messkameras 10 untereinander. Die Muster 9 an den Tragflügelspitzen 6 können mit sehr geringer physikalischer Masse ausgebildet werden. Sie können auch so ausgebildet werden, dass sie für das menschliche Auge nicht sichtbar sind und einen menschlichen Betrachter entsprechend nicht stören, indem sie beispielsweise aus dem nicht sichtbaren Bereich imitierenden LED als optische Marker ausgebildet werden. Wenn die Messkameras 10 beispielsweise mit optischen Filtern genau auf die Wellenlängen solcher LEDs oder anderer optischer Marker 9 abgestimmt werden, weisen die Bilder der Messkameras einen hohen Kontrast auf, der eine einfache Auswertung sicherstellt.
  • Die gemäß 1 über die Halterung 11 starr miteinander verbundenen Messkameras 10 können durch eine einzige Messkamera 11 mit großem Abbildungsbereich (Öffnungswinkel) ersetzt werden, welche die beiden an den Tragflügelspitzen 6 befindlichen Muster 8 mit den in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern 9 gleichzeitig abbildet.
  • Das in 2 dargestellte erfindungsgemäße Flugzeug 1 unterscheidet sich von demjenigen gemäß 1 darin, dass die Messkameras 20 in oder am Rumpf 2 angeordnet sind. Sie sind dabei über den Rumpf 2 möglichst starr miteinander verbunden, indem sie sich beispielsweise ein und demselben Aussteifungselement des Rumpfs 2 abstützen.
  • Bei dem in 3 illustrierten Flugzeug 1 sind die Messkameras 10 und die Muster 8 gegenüber 2 vertauscht, d. h. hier sind die Messkameras 10 starr an den Tragflügelspitzen 6 an die Umgebungskameras 7 gekoppelt, und sie bilden die an dem Rumpf 2 angeordneten Muster 8 aus den optischen Marken 9 ab. Dies kann den Vorteil haben, dass die Muster 8 eine größere Ausdehnung aufweisen können, ohne dass das aus den Messkameras 10 und Mustern 8 gebildete Erfassungssystem für die Relativpositionen und die Relativausrichtungen der Umgebungskameras die Kontur des Flugzeugs 1 signifikant verändert.
  • Bei dem in 4 illustrierten erfindungsgemäßen Flugzeug 1 umfasst das Erfassungssystem für die Relativpositionen und Relativausrichtungen der Umgebungskameras 7 inertiale Messsysteme oder IMU 13, die jeweils starr mit einer der Umgebungskameras 7 an den Tragflügelspitzen 6 gekoppelt sind. Mit den inertialen Messsystemen 13 werden die auf die Umgebungskameras 7 wirkenden Beschleunigungen erfasst. Hieraus kann unter Berücksichtigung der Grenzen, in denen sich die Relativposition und die Relativausrichtung der Umgebungskameras 7 an den Tragflügelspitzen 6 ändern können, die jeweils aktuellen Relativpositionen und Relativausrichtungen der Umgebungskameras 7 bestimmt werden. Die Synchronisierungseinrichtung 12 dient dabei dazu, festzuhalten, zu welchem Zeitpunkt in Bezug auf die Signale der inertialen Messsysteme 13 zeitgleich mit beiden Umgebungskameras 7 die Bilder des vor dem Flugzeug 1 liegenden Objekts aufgezeichnet werden. Vorzugsweise werden die inertialen Messsysteme 13 gemäß 4 mit den Messkameras 10 gemäß einer der 1 bis 3 kombiniert. Weiterhin ist auch eine Kombination mit einem lasergestützten Erfassungssystem für die Relativpositionen und die Relativausrichtungen der Umgebungskameras möglich.
  • Bezugszeichenliste
  • 1
    Flugzeug
    2
    Rumpf
    3
    Tragflügel
    4
    Höhenleitwerk
    5
    Seitenleitwerk
    6
    Tragflügelspitze
    7
    Umgebungskamera
    8
    Muster
    9
    Marker
    10
    Messkamera
    11
    Halterung
    12
    Synchronisierungseinrichtung
    13
    inertiales Messsystem
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 4029306 A1 [0004]
    • DE 102011085087 A1 [0005]
    • DE 102011058087 A1 [0005]

Claims (11)

  1. Flugzeug (1) mit mehreren Umgebungskameras (7) zum Abbilden eines in der Umgebung des Flugzeugs (1) befindlichen Objekts aus mehreren Richtungen, wobei die Umgebungskameras (7) in Relativpositionen und Relativausrichtungen zueinander angeordnet sind, gekennzeichnet durch ein die Relativpositionen und die Relativausrichtungen der Umgebungskameras (7) erfassendes mehrteiliges Erfassungssystem, wobei jede der Umgebungskameras (7) starr mit einem Teil des Erfassungssystems gekoppelt ist.
  2. Flugzeug (1) nach Anspruch 1, dadurch gekennzeichnet, dass der Teil des Erfassungssystems, mit dem mindestens eine der Umgebungskameras (7) starr gekoppelt ist, eine Messkamera (10) umfasst, die einen an einem anderen Ort des Flugzeugs (1) angeordneten Teil des Erfassungssystems abbildet, welcher ein Muster (8) von in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern (9) umfasst.
  3. Flugzeug (1) nach Anspruch 2, dadurch gekennzeichnet, dass der das Muster (8) umfassende Teil des Erfassungssystems, den die mindestens eine der Umgebungskameras (7) abbildet, oder ein damit starr verbundener weiterer Teil des Erfassungssystems, der ein weiteres Muster (8) von in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern (9) umfasst, von einer weiteren Messkamera (10) abgebildet wird, die starr mit einer anderen der Umgebungskameras (7) gekoppelt ist.
  4. Flugzeug (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Teil des Erfassungssystems, mit dem mindestens eine der Umgebungskameras (7) starr gekoppelt ist, ein Muster (8) von in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern (9) umfasst, das von einer an einem anderen Ort des Flugzeugs (1) angeordneten Messkamera (10) des Erfassungssystems abgebildet wird.
  5. Flugzeug (1) nach Anspruch 4, dadurch gekennzeichnet, dass die Messkamera (10), die das Muster (8) abbildet, oder eine damit starr verbundene weitere Messkamera (10) des Erfassungssystems ein weiteres Muster (8) von in mindestens zwei Raumrichtungen verteilt angeordneten optischen Markern (9) abbildet, das von dem Teil des Erfassungssystems umfasst ist, mit welchem eine andere der Umgebungskameras (7) starr gekoppelt ist.
  6. Flugzeug (1) nach einem der Ansprüche 1 bis 5, gekennzeichnet durch eine Synchronisierungseinrichtung (12), die dazu ausgebildet ist, die Umgebungskameras (7) und die Messkameras (10) bezüglich ihrer Bildaufnahmezeiten miteinander zu synchronisieren.
  7. Flugzeug (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Teil des Erfassungssystems, mit dem mindestens eine der Umgebungskameras (7) starr gekoppelt ist, einen Laser und/oder einen Laserlichtreflektor und/oder einen Laserlichtdetektor eines lasergestützten Erfassungssystems umfasst.
  8. Flugzeug (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Teil des Erfassungssystems, mit dem mindestens eine der Umgebungskameras (7) starr gekoppelt ist, ein inertiales Messsystem (13) umfasst.
  9. Flugzeug (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zwei der Umgebungskameras (7) an eine Spannweite voneinander entfernten Tragflügelspitzen (6) angeordnet sind und in Flugrichtung ausgerichtet sind.
  10. Flugzeug (1) nach Anspruch 9 soweit direkt oder indirekt rückbezogen auf Anspruch 5, dadurch gekennzeichnet, dass die Messkamera (10), die das Muster (8) abbildet und die damit starr verbundene weitere Messkamera (10), die das weitere Muster (8) abbildet, an oder in einem Seitenleitwerk (5) angeordnet sind.
  11. Flugzeug (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es unbemannt ist.
DE102016106707.5A 2016-04-12 2016-04-12 Flugzeug mit mehreren Umgebungskameras Active DE102016106707B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016106707.5A DE102016106707B4 (de) 2016-04-12 2016-04-12 Flugzeug mit mehreren Umgebungskameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016106707.5A DE102016106707B4 (de) 2016-04-12 2016-04-12 Flugzeug mit mehreren Umgebungskameras

Publications (2)

Publication Number Publication Date
DE102016106707A1 true DE102016106707A1 (de) 2017-10-12
DE102016106707B4 DE102016106707B4 (de) 2019-11-21

Family

ID=59929882

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016106707.5A Active DE102016106707B4 (de) 2016-04-12 2016-04-12 Flugzeug mit mehreren Umgebungskameras

Country Status (1)

Country Link
DE (1) DE102016106707B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114701662A (zh) * 2022-06-07 2022-07-05 中国商用飞机有限责任公司 一种用于高升力系统倾斜探测的方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4029306A1 (de) 1990-09-15 1992-03-19 Airbus Gmbh Vorrichtung zur aussenbeobachtung von flugzeugen
US20020027651A1 (en) * 2000-08-14 2002-03-07 Jackson David A. Self-calibrating 3D machine measuring system useful in motor vehicle wheel alignment
DE102011085087A1 (de) 2011-10-24 2012-12-13 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Bestimmung der relativen äußeren Orientierung von mindestens zwei Bildaufnahmen
US20140312165A1 (en) * 2013-03-15 2014-10-23 Armen Mkrtchyan Methods, apparatus and systems for aerial assessment of ground surfaces
EP2801839A1 (de) * 2013-05-10 2014-11-12 Leica Geosystems AG Handhaltbares Messhilfsmittel zur Verwendung mit einerm 6-DoF-Lasertracker
EP2908094A1 (de) * 2014-02-14 2015-08-19 AIT Austrian Institute of Technology GmbH Verfahren zur Erstellung von Stereo-Digitalbildern

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4029306A1 (de) 1990-09-15 1992-03-19 Airbus Gmbh Vorrichtung zur aussenbeobachtung von flugzeugen
US20020027651A1 (en) * 2000-08-14 2002-03-07 Jackson David A. Self-calibrating 3D machine measuring system useful in motor vehicle wheel alignment
DE102011085087A1 (de) 2011-10-24 2012-12-13 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Bestimmung der relativen äußeren Orientierung von mindestens zwei Bildaufnahmen
US20140312165A1 (en) * 2013-03-15 2014-10-23 Armen Mkrtchyan Methods, apparatus and systems for aerial assessment of ground surfaces
EP2801839A1 (de) * 2013-05-10 2014-11-12 Leica Geosystems AG Handhaltbares Messhilfsmittel zur Verwendung mit einerm 6-DoF-Lasertracker
EP2908094A1 (de) * 2014-02-14 2015-08-19 AIT Austrian Institute of Technology GmbH Verfahren zur Erstellung von Stereo-Digitalbildern

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114701662A (zh) * 2022-06-07 2022-07-05 中国商用飞机有限责任公司 一种用于高升力系统倾斜探测的方法和装置
CN114701662B (zh) * 2022-06-07 2022-08-23 中国商用飞机有限责任公司 一种用于高升力系统倾斜探测的方法和装置

Also Published As

Publication number Publication date
DE102016106707B4 (de) 2019-11-21

Similar Documents

Publication Publication Date Title
DE60313319T2 (de) Luftaufklärungssystem
EP2800982B1 (de) Verfahren und vorrichtung zur radunabhängigen geschwindigkeitsmessung bei einem fahrzeug
DE69012278T2 (de) Navigationssysteme.
DE69021354T2 (de) System zur Detektion eines Hindernisses.
EP1836455B1 (de) Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles
AT509103B1 (de) Verfahren zur stützung der messgenauigkeit von gps/imu-systemen
EP3513161A1 (de) Fahrzeugprüfstand zum kalibrieren und/oder testen von systemen eines fahrzeugs, die wenigstens eine kamera umfassen sowie verfahren zur durchführung der kalibrierung und/oder tests von systemen eines fahrzeugs, die wenigstens eine kamera umfassen
EP2234081B1 (de) Verfahren zur Herstellung einer bekannten festen räumlichen Beziehung zwischen einem Laserscanner und einer Digitalkamera zur Verkehrsüberwachung
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
DE112017007467T5 (de) Verfahren zum Bereitstellen einer Interferenzreduzierung und eines dynamischen Bereichs von Interesse in einem LIDAR-System
DE102009054698A1 (de) Verfahren zum Positionieren wenigstens einer Komponente, insbesondere eines Sitzes, in oder an einem Luft- oder Raumfahrzeug, sowie Luft- oder Raumfahrzeug
DE102011075703A1 (de) Verfahren und Vorrichtung zur Kalibrierung einer Projektionseinrichtung eines Fahrzeugs
DE3927851A1 (de) System fuer die bestimmung der raeumlichen position eines sich bewegenden objekts und zum fuehren seiner bewegung
DE102018108027A1 (de) Objekterfassungsvorrichtung
DE102007054950B4 (de) Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
EP2381208B1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
DE102007014878A1 (de) Verfahren zur Rundum-Kollisionswarnung für Hubschrauber
DE102008027976A1 (de) Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors
DE102015007028A1 (de) Verfahren zur Fokussierung eines hochenergetischen Strahls auf einem Haltepunkt auf der Oberfläche eines fliegenden Flugobjekts
DE102018107064A1 (de) Kalibrierungsvorrichtung eines Bildgebungssystems und zugeordnetes Kalibrierungsverfahren
DE102018113244B3 (de) Verfahren und Vorrichtung zum Messen von Schwingungen eines Objekts unter Verwendung einer Drohne
DE102011078746A1 (de) Abstands- und Typenbestimmung von Flugzeugen während des Andockens an das Gate
DE102015202230A1 (de) Fusionierte Eigenbewegungsberechnung für ein Fahrzeug
DE102016106707B4 (de) Flugzeug mit mehreren Umgebungskameras
DE10305993B4 (de) Vermessungsverfahren zur Flug- und Fahrzeugführung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final