DE10065180A1 - Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren Durchführung - Google Patents
Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren DurchführungInfo
- Publication number
- DE10065180A1 DE10065180A1 DE2000165180 DE10065180A DE10065180A1 DE 10065180 A1 DE10065180 A1 DE 10065180A1 DE 2000165180 DE2000165180 DE 2000165180 DE 10065180 A DE10065180 A DE 10065180A DE 10065180 A1 DE10065180 A1 DE 10065180A1
- Authority
- DE
- Germany
- Prior art keywords
- aircraft
- optical system
- image processing
- images
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0021—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/04—Anti-collision systems
- G08G5/045—Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren und Vorrichtung zur Durchführung einer Kollisionsvermeidung mittels eines optischen Systems (11), einem diesem zugeordneten Fokalebenen-Sensor (15), einer ersten (17) und einer zweiten (19) Bildverarbeitungsschaltung und einer Steuereinheit (20), mit der Erfassung eines vorbestimmten Gesichtsfeldes des Luftraums mittels eines optischen Systems (11) und eines Fokalebenen-Sensors (15) und Erstellung von Eingangsbildern (21), der Durchführung einer Kontrastanhebung (63) und einer Kanten- und Objekt-Extraktion (64) an den Eingangsbildern (21) mittels zumindest einer Bildverarbeitungsschaltung (16, 17) und daraufhin Erstellung von Ausgangsbildern (23), dem Zusammenfassen einer Gruppe mehrerer nach bekannten Zeitabständen aufeinanderfolgenden Ausgangsbilder (23) in eine Bildfolge (30) in einem Bilddatenspeicher (67) und Ermittlung des Verlaufs (68) der Kanteninformationen der Bilder über die Zeit, der Ermittlung der Eigenbewegung des messenden Luftfahrzeugs mittels einer Sensorik (81, 82) und Ermittelung einer Vorhersage (40) der möglichen dreidimensionalen Bahnen der erkannten Objekte im Verhältnis zur Eigenbewegung in einer Steuereinheit (20), der bedarfsweisen Generierung einer Warnung oder eines Ausweichsmanövers (50) und Weiterleitung derselben bzw. desselben an eine Steuerung (70) des Luftfahrzeugs oder eine Bodenstation.
Description
Die Erfindung betrifft ein Sensorsystem mit optischen Sensoren zur
Kollisionsvermeidung von bemannten oder unbemannten Luftfahrzeugen sowie ein
Verfahren zur Durchführung der Kollisionsvermeidung.
Aus dem allgemeinen Stand der Technik sind Kollisionsvermeidungs-Systeme bekannt,
bei denen jedes mit einem solchen ausgerüstete Luftfahrzeug, das sich in einem
vorgegebenen Luftraum befindet, Sensoren zur Bestimmung der Position und des
Geschwindigkeitsvektors mitführt. Zwischen den mit solchen Sensoren ausgerüsteten,
Luftfahrzeugen werden diese Daten ausgetauscht, um dadurch Bahnextrapolationen
für jedes Luftfahrzeug zu erzeugen. Aufgrund der prognostizierten Flugbahn kann für
jedes Luftfahrzeug die Kollisionsgefahr ermittelt werden.
Derartige Verfahren haben den Nachteil, daß sie aktuelle Daten des jeweils erfaßten
Luftfahrzeugs benötigen, was zu den relevanten Zeitpunkten nicht immer gewährleistet
werden kann.
Es ist daher die Aufgabe der Erfindung, ein System zur Kollisionsvermeidung sowie ein
Verfahren zu deren Durchführung zu schaffen, das autonom erfolgt und einen
möglichst geringen Geräteaufwand erforderlich macht.
Diese Aufgabe wird mit den Merkmalen der unabhängigen Ansprüche gelöst.
Ein Vorteil der Erfindung ist, daß erfindungsgemäß mögliche Kollisionen mittels
optischer Sensoren erkannt werden, wodurch sich ein kompaktes, integriertes und
somit kostengünstiges Sensorsystem ergibt, mit dem sich der Sichtlinienwinkel zu
einem Luftfahrzeug, gegebenenfalls der Abstand und die Relativbewegung der beiden
Luftfahrzeuge zueinander bestimmen lassen.
Es lassen sich aber auch andere bildgebende Sensoren wie z. B. Radar einsetzen.
Insbesondere wird durch die Erfindung die autonome Fähigkeit zur Einhaltung von
Ausweichregeln insbesondere für unbemannte Luftfahrzeuge gewährleistet. Bei
bemannten Luftfahrzeugen kann das erfindungsgemäße Sensorsystem auch zur
Pilotenunterstützung herangezogen werden.
Im folgenden wird die Erfindung anhand der beiliegenden Figuren beschrieben, die
zeigen:
Fig. 1 eine Darstellung des Ablaufs des Systems bzw. Verfahrens nach der Fig. 1,
Fig. 2 ein Funktionsschema des Systems bzw. des Verfahrens zur
Kollisionsvermeidung,
Fig. 3 eine bevorzugte Anordnung der Kameras für das erfindungsgemäße
Kollistionsvermeidungs-System bzw. -Verfahren in der horizontalen Ebene,
Fig. 4 eine schematische Darstellung der Kamera-Anordnung nach der Fig. 3
von der Seite gesehen.
Erfindungsgemäß wird mit einem optischen System 11, das eine Kamera-Anordnung
sein kann, wie sie beispielhaft in den Fig. 3 und 4 dargestellt ist, der Luftraum
eines Luftfahrzeugs in vorbestimmten Grenzen erfaßt. Die durch das optische System
11 erfaßten elektromagnetischen Strahlen 13 werden mittels des optischen Systems
auf eine Sensorfläche oder einen Fokalebenen-Sensor 15 fokussiert. Dem
Fokalebenen-Sensor 15 ist eine erste analoge Bildverarbeitungsschaltung 17 sowie
eine zweite analoge Bildverarbeitungsschaltung 19 zugeordnet. Die
Bildverabeitungsschaltungen 17, 19 sind bezüglich ihres Taktes sowie zur
Gewährleistung einheitlicher Zeitinformationen zu steuern, was durch eine zentrale
Steuereinheit 20 erfolgen kann. Die erste analoge Bildverarbeitungsschaltung 17
verarbeitet bildweise jedes von dem Fokalebenen-Sensor 15 empfangene Bild, um eine
Dynamikkompression und eine lokale Kontrast-Adaption zu bewerkstelligen. Bei der
zweiten analogen Bildverarbeitungsschaltung 19 erfolgt für jedes von der ersten
Bildverarbeitungsschaltung 17 bearbeitete Bild eine Kantenextraktion sowie eine
Objektextraktion. Die Bildverarbeitungsschaltungen 17 sind nach einem Verfahren
nach dem Stand der Technik gebildet.
Die jeweils als Zwischenergebnis erhaltenen Eigenschaften jedes aufgenommenen
Bildes werden anhand der schematischen Bilddarstellungen 21, 22, 23 beschrieben.
Dabei ist das vom Fokalebenen-Sensor 15 erstellte Bild ein Bild mit vielen Graustufen
und möglicherweise undeutlichen Konturlinien. Typischerweise hat jede Kamera 31,
32, 33 des optischen Systems 11 ein lichtempfindliches Element mit z. B. 512 × 512
Bild- oder Pixel-Punkten, die ein Raster von Helligkeitsinformationen liefern. Diese
werden mit einem Takt von vorzugsweise bis zu 25 Hertz ausgelesen und an die erste
analoge Bildverarbeitungsschaltung 17 geleitet. Dieser verstärkt die Kontraste
zwischen den Bildpunkten, was schematisch mit dem Bild 22 gezeigt ist. Das Bild 22
wird wiederum in der zweiten Bildverarbeitungsschaltung 19 der Kantenextraktion
unterzogen, indem benachbarte Gruppen von Bildpunkten verglichen werden, um
Linien zu isolieren, entlang denen sich die Helligkeit ändert. Diese Funktion ermöglicht
es, eine beliebige Zahl von Objekten aus dem Hintergrund zu isolieren, die als
zusammenhängende Gruppen von Bildpunkten mit geringer Helligkeit im Sensor
erscheinen (Objektextraktion). Anstelle einer ersten und einer zweiten
Bildverarbeitungsschaltung 17, 19 kann auch nur eine solche vorgesehen sein, die
beide Schritte kombiniert oder gleichwertig ersetzt.
In einem weiteren Schritt, der in einer eigenen Rechnereinheit oder in der
Steuereinheit 20 abläuft, werden mehrere von der zweiten Bildverarbeitungsschaltung
19 empfangene Bilder im Zusammenhang weiterverarbeitet. Dabei wird zunächst
durch einfache Schwellwertbildung die Ausdehnung und der Schwerpunkt der
Intensitätsverteilung der Bildpunkte bei einer Gruppe von zeitlich nach bekannten
Zeitabständen aufeinanderfolgenden Bildern 23 sowie der Sichtlinienwinkel des
Schwerpunkts der Helligkeit bei jeder Gruppe von Bildern 23 relativ zum optischen
System 11 bestimmt. Durch die periodische Auslesung ist es möglich, den zeitlichen
Verlauf des Sichtlinienwinkels und der Ausdehnung jeder Gruppe festzustellen.
Dadurch wird aufgrund eines Vergleichs mit zeitlich früheren Bildern eine
dreidimensionale Bahn des Schwerpunkts berechnet. Aus dem Wachstum der
Ausdehnung wird eine Abschätzung der relativen Annährungsgeschwindigkeit des
erfassten Luftfahrzeugs erhalten. Da sich das jeweils messende Luftfahrzeug selbst
bewegt, weisen auch stationäre Objekte, wie zum Beispiel Wolken oder
Bodenmerkmale, eine Relativbewegung auf, die über eine Vorhersage dieser
scheinbaren Bewegung erkannt werden können. Diese Vorhersage wird aufgrund von
Informationen gemacht, die die Steuereinheit 20 oder die Rechnereinheit über die
Geschwindigkeit und den Kurs des messenden Luftfahrzeugs von seinem
Luftdatensystem und seinem Inertialsystem 25 mit einer zugeordneten
Auswerteelektronik 27 erhält. Dabei wird die Annahme getroffen, daß alle Objekte, die
diese Scheinbewegung aufweisen, sehr weit entfernt sind.
Die unterschiedliche Scheinbewegung zwischen Horizontalmerkmalen und anderen
Luftfahrzeugen bzw. Vögeln kann zu deren Detektion herangezogen werden.
Mit dem erfindungsgemäßen Verfahren läßt sich nicht die absolute Entfernung
messen, sondern ihr relativer Verlauf über der Zeit. Mittels einer Plausibilitätsanalyse
ist auch ein oberer und ein unterer Grenzwert der Entfernung abzuschätzen, indem
man annimmt, daß andere Objekte einen minimalen und einen maximalen Wert des
Durchmessers des von ihnen erzeugten Punktmusters haben. Für eine
Kollisionsdetektion ist allerdings der Verlauf des Sichtlinienwinkels die entscheidende
Größe. Wenn eine Extrapolation des Verlaufs des Sichtlinienwinkels ergibt, daß die
Bahn des Luftfahrzeugs nie die des beobachteten Objekts schneidet, ist eine Messung
der Entfernung nicht erforderlich.
Da die absolute Entfernung nicht bekannt ist, ist die Extrapolation aller möglichen
Aufenthaltsorte des beobachteten Objekts für verschiedene Zeitpunkte eine Ebene im
Raum, die sich durch die Aufnahme einer minimalen und einer maximalen Größe des
beobachteten Objekts weiter zu einem Band eingrenzen läßt. Erst wenn der Vektor
der Eigenbewegung des Luftfahrzeugs dieses Band schneidet und das beobachtete
Objekt auf diesen Punkt hinstrebt, wird eine Kollisionswarnung ausgelöst.
Diese wird so lange aufrecht erhalten, bis durch ein Ausweichsmanöver des
Luftfahrzeugs dessen Bewegungsvektor das Band der möglichen Aufenthaltsorte des
beobachteten Objekts nicht mehr schneidet.
Aus einer sich aus der Gruppe von Bildern ergebenden Bildfolge 30 wird die
dreidimensionale Trajektorie oder das Band jedes erfassten Luftfahrzeugs ermittelt,
wobei die mittels der Luftdaten- und Inertialsensorik 25 ermittelte dreidimensionale
Eigenbewegung mitberücksichtigt werden muß. Daraus ergibt sich dann eine
Vorhersage 40 für die Bahn des erkannten Objekts relativ zur Eigenbewegung bzw. die
Annäherung des erkannten Objekts an das messende Luftfahrzeug. Aufgrund der
Vorhersage 40 ist es nach dem Stand der Technik möglich, eine Warnung und optional
ein Ausweichmanöver zu erzeugen, das in Abhängigkeit der Flugsituation und bzw. des
Flugzustands des messenden Luftfahrzeugs zum erreichen einer sicheren Flugposition
oder eines sicheren Flugzustandes erforderlich ist. Die Warnung und auch das
erzeugte Ausweichmanöver kann zur Kontrolle auch an eine Bodenstation übermittelt
werden.
Der Ablauf des erfindungsgemäßen Kollisionsvermeidungs-Systems beginnt also mit
der optischen Erfassung 61 eines vorbestimmten Sichtbereichs mittels des optischen
Systems 11, woraus Bildinformationen 62 mit verhältnismäßig vielen Graustufen (z. B.
256 Graustufen) Bildweise erhalten werden. Typischerweise werden derartige Bilder in
einer vorbestimmten konstanten Frequenz, z. B. 25 Bilder pro Sekunde erhalten.
Durch die Kontrastanhebung 63 und die Kantenextraktion 64 mittels der ersten
Bildverarbeitungschaltung 17 bzw. der zweiten Bildverarbeitungsschaltung 19 wird
jedes Bild 21 der Bildinformation 62 in ein Bild 23 mit Kanteninformationen 65
umgeformt. Die Kanteninformationen 65 und scheinbaren Ausdehnungen als Ausgang
der Bildverarbeitungschaltungen b3, 64 liefern vor allem die Umrisse und scheinbaren
Ausdehnungen aller im Sichtfeld erfassten Objekte. Die Kanteninformation 65 je Bild
gelangt zu einem Bilddatenspeicher 67, in dem Bildfolgen 30 verarbeiten werden und
der einen Verlauf der Kanteninformation 68 über die Zeit erstellt. In der Steuereinheit
20 oder einer Rechnereinheit wird in beschriebener Weise die Vorhersage 40 der
zeitabhängigen (t-Achse) Bahn (s-Achse) bzw. des genannten Bands jedes erkannten
Objekts relativ zur Eigenbewegung ermittelt. Auf der Basis der Daten 40 wird in einer
Rechnereinheit eine Warnung oder auch ein Ausweichmanöver 50 erzeugt und an die
Steuerung 70 des Luftfahrzeugs oder einer Bodenstation gesandt.
In der Fig. 2 ist auch dargestellt, wie in der Steuereinheit 20 die Luftdaten sowie die
Inertialdaten zur Ermittlung der Eigenbewegung berücksichtigt werden. Dabei werden
die in einem Luftdatensensor 81 und einem Inertialsensor 82 ermittelten
Zustandsgrößen für das messende Luftfahrzeug, zum Beispiel statischer Luftdruck,
Gesamtdruck, Anstellwinkel, Schiebewinkel, Drehraten in allen drei Raumrichtungen
ermittelt und einem Luftdatenrechner 83 zugeführt. Dieser ermittelt die Daten 80 zur
Bestimmung der Eigenbewegung, d. h. die Fluggeschwindigkeit, die Flugrichtung und
die räumlichen Koordinaten. Der Luftdatenrechner 83 kann auch Bestandteil einer
anderen Rechnereinheit, insbesondere der Steuereinheit 20, sein.
Die Steuereinheit 20, oder wenn die dieser zugeordneten Funktionen in einer anderen
Rechnereinheit ablaufen, eine weitere Rechnereinheit liefern Daten an eine
Steuerelektronik 85 für das optische System 11 sowie die
Bildverarbeitungsschaltungen 17, 19. Die Steuerelektronik 85 bewirkt das Takten des
optischen Systems 11 sowie der Bildverarbeitungsschaltungen 17,19. Dadurch kann
die erfasste Information bildweise aufgebaut werden und jedes Bild mit einer
Zeitinformation versehen werden. Auch kann mittels der Steuerelektronik 85 das
optische System an die Umgebungsbedingungen angepasst werden, z. B. eine
Helligkeitsregelung erzeugen. Diese kann jedoch auch entfallen, wenn der
Fokalebenen-Sensor genügend Dynamik aufweist und die Bildverarbeitungschaltungen
17, 19 in entsprechenderweise mit dem Fokalebenen-Sensor 15 integriert sind.
Für den Fall, daß das optische System 11 eine Kameraanordnung ist, ist eine solche in
einer bevorzugten Ausführungsform in den Fig. 3 und 4 dargestellt. Diese zeigen 3
Kameras 31, 32, 33, die in der Horizontalebene (XY-Ebene) ein Gesichtsfeld von 3 ×
80°, d. h. 240° aufspannen (Fig. 3). In der Vertikalebene (Fig. 4) spannen sich ein
Gesichtsfeld jeweils von insgesamt 60° auf, wobei sich dieses vertikale Gesichtsfeld
vorzugsweise von +40° in positiver Z-Richtung bis -20° in negativer Z-Richtung
erstreckt, wobei die positive Z-Richtung die Hochachse des Luftfahrzeugs darstellt. Es
sind jedoch auch andere Kamera-Anordnungen 31, 32, 33 möglich, die sich aus dem
Anwendungsfall des jeweiligen Luftfahrzeugs ergeben. Die Zahl der Kameras richtet
sich nach dem jeweiligen Anwendungsfall.
Erfindungsgemäß handelt es sich um ein Verfahren und eine Vorrichtung zur
Durchführung einer Kollisionsvermeidung mittels eines optischen Systems (11) einem
diesem zugeordneten Fokalebenen-Sensor (15), einer ersten (17) und einer zweiten
(19) Bildverarbeitungsschaltung und einer Steuereinheit (20), mit der Erfassung eines
vorbestimmten Gesichtsfeldes des Luftraums mittels eines optischen Systems (11)
und eines Fokalebenen-Sensors (15) und Erstellung von Eingangsbildern (21), der
Durchführung einer Kontrastanhebung (63) und einer Kanten- und Objekt-Extraktion
(64) an den Eingangsbildern (21) mittels zumindest einer Bildverarbeitungsschaltung
(16, 17) und daraufhin Erstellung von Ausgangsbildern (23), dem Zusammenfassen
einer Gruppe mehrerer nach bekannten Zeitabständen aufeinanderfolgenden
Ausgangsbilder (23) in eine Bildfolge (30) in einem Bilddatenspeicher (67) und
Ermittlung des Verlaufs (68) der Kanteninformationen der Bilder über die Zeit, der
Ermittlung der Eigenbewegung des messenden Luftfahrzeugs mittels einer Sensorik
(81, 82) und Ermittlung einer Vorhersage (40) der dreidimensionalen Bahn der
erkannten Objekte im Verhältnis zur Eigenbewegung in einer Steuereinheit (20), der
Generierung einer Warnung oder eines Ausweichmanövers (50) und Weiterleitung
derselben bzw. desselben an eine Steuerung (70) des Luftfahrzeugs oder eine
Bodenstation.
Claims (2)
1. Verfahren zur Durchführung einer Kollisionsvermeidung mittels zumindest eines
optischen Systems (11), einem diesem zugeordneten Fokalebenen-Sensor (15), einer
ersten (17) und einer zweiten (19) Bildverarbeitungsschaltung und einer Steuereinheit
(20), mit den folgenden Schritten:
- - Erfassung eines vorbestimmten Gesichtsfeldes des Luftraums mittels eines optischen Systems (11) und eines Fokalebenen-Sensors (15) und Erstellung von Eingangsbildern (21),
- - Durchführung einer Kontrastanhebung (63) und einer Kanten- und Objekt- Extraktion (64) an den Eingangsbildern (21) mittels zumindest einer Bildverarbeitungsschaltung (16, 17) und daraufhin Erstellung von Ausgangsbildern (23), wobei eine Steuerelektronik (85) Daten an das optische System (11) sowie an die Bildverarbeitungsschaltungen (17, 19) schickt, um das Takten des optischen Systems (11) und der Bildverarbeitungsschaltungen (17, 19) zu bewirken, wodurch die erfasste Information bildweise aufgebaut und jedes Bild mit einer Zeitinformation versehen wird,
- - Zusammenfassen einer Gruppe mehrerer nach bekannten Zeitabständen aufeinanderfolgenden Ausgangsbilder (23) in eine Bildfolge (30) in einem Bilddatenspeicher (67) und Ermittlung des Verlaufs (68) der Kanteninformationen der Bilder über die Zeit,
- - Ermittlung des Verlaufs der Schwerpunkte der detektierten Objekte über der Zeit, Extrapolation des Verlaufs und Vorhersage möglicher Bahnen,
- - Ermittlung der Eigenbewegung des messenden Luftfahrzeugs mittels einer Sensorik (81, 82) und Ermittlung einer Vorhersage (40) der dreidimensionalen Bahn der erkannten Objekte im Verhältnis zur Eigenbewegung in einer Steuereinheit (20),
- - Bestimmung der Existenz eines Schnittpunktes, und bei Bedarf Generierung einer Warnung oder eines Ausweichmanövers (50) und Weiterleitung derselben bzw. desselben an eine Steuerung (70) des Luftfahrzeugs oder eine Bodenstation.
2. Vorrichtung zur Durchführung des Verfahrens nach dem Anspruch 1 mit einem
optischen System (11), einen Fokalebenen-Sensor (15), einer
Bildverarbeitungsschaltung (16, 17), einem Bilddatenspeicher (67), einer Sensorik (81,
82) und einer Steuerung (70) des Luftfahrzeugs oder einer Bodenstation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2000165180 DE10065180A1 (de) | 2000-12-23 | 2000-12-23 | Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren Durchführung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2000165180 DE10065180A1 (de) | 2000-12-23 | 2000-12-23 | Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren Durchführung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10065180A1 true DE10065180A1 (de) | 2002-07-11 |
Family
ID=7669110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2000165180 Ceased DE10065180A1 (de) | 2000-12-23 | 2000-12-23 | Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren Durchführung |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10065180A1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7061401B2 (en) | 2003-08-07 | 2006-06-13 | BODENSEEWERK GERäTETECHNIK GMBH | Method and apparatus for detecting a flight obstacle |
EP1936330A1 (de) | 2006-12-21 | 2008-06-25 | Eurocopter | Bildverarbeitungs- und Anzeigeverfahren und -system von Umgebungsbildern eines Luftfahrzeugs |
DE102008058798A1 (de) * | 2008-11-24 | 2010-05-27 | Carl Zeiss Optronics Gmbh | Stereokameraeinrichtungen, Verfahren zur fortlaufenden automatischen Kalibrierung einer Stereokameraeinrichtung, Computerprogramm, Computerprogrammprodukt und Überwachungsvorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen |
US10228692B2 (en) | 2017-03-27 | 2019-03-12 | Gulfstream Aerospace Corporation | Aircraft flight envelope protection and recovery autopilot |
EP1999737B2 (de) † | 2006-03-13 | 2021-10-27 | The Boeing Company | System und verfahren zur erkennung und verhinderung von flugzeugkollisionen |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4140406A1 (de) * | 1991-12-07 | 1993-06-09 | Deutsche Aerospace Ag, 8000 Muenchen, De | System zur verbesserten orientierung, navigation, fuehrung und ueberwachung von flugzeugen |
DE19534230A1 (de) * | 1995-09-15 | 1997-03-20 | Daimler Benz Ag | Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern |
-
2000
- 2000-12-23 DE DE2000165180 patent/DE10065180A1/de not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4140406A1 (de) * | 1991-12-07 | 1993-06-09 | Deutsche Aerospace Ag, 8000 Muenchen, De | System zur verbesserten orientierung, navigation, fuehrung und ueberwachung von flugzeugen |
DE19534230A1 (de) * | 1995-09-15 | 1997-03-20 | Daimler Benz Ag | Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7061401B2 (en) | 2003-08-07 | 2006-06-13 | BODENSEEWERK GERäTETECHNIK GMBH | Method and apparatus for detecting a flight obstacle |
EP1999737B2 (de) † | 2006-03-13 | 2021-10-27 | The Boeing Company | System und verfahren zur erkennung und verhinderung von flugzeugkollisionen |
EP1936330A1 (de) | 2006-12-21 | 2008-06-25 | Eurocopter | Bildverarbeitungs- und Anzeigeverfahren und -system von Umgebungsbildern eines Luftfahrzeugs |
DE102008058798A1 (de) * | 2008-11-24 | 2010-05-27 | Carl Zeiss Optronics Gmbh | Stereokameraeinrichtungen, Verfahren zur fortlaufenden automatischen Kalibrierung einer Stereokameraeinrichtung, Computerprogramm, Computerprogrammprodukt und Überwachungsvorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen |
DE102008058798B4 (de) * | 2008-11-24 | 2011-02-17 | Carl Zeiss Optronics Gmbh | Stereokameraeinrichtungen, Verfahren zur fortlaufenden automatischen Kalibrierung einer Stereokameraeinrichtung, Computerprogramm, Computerprogrammprodukt und Überwachungsvorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen |
US10228692B2 (en) | 2017-03-27 | 2019-03-12 | Gulfstream Aerospace Corporation | Aircraft flight envelope protection and recovery autopilot |
US10930164B2 (en) | 2017-03-27 | 2021-02-23 | Gulfstream Aerospace Corporation | Aircraft flight envelope protection and recovery autopilot |
US11580865B2 (en) | 2017-03-27 | 2023-02-14 | Gulfstream Aerospace Corporation | Aircraft flight envelope protection and recovery autopilot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017217056B4 (de) | Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug | |
EP0541567B1 (de) | Verfahren zur analyse zeitlicher folgen digitaler bilder | |
DE102012219834B4 (de) | Spurverfolgungssystem | |
EP1067399B1 (de) | Verfahren zur Sichtweitenbestimmung | |
DE112013004341T5 (de) | Fernbetätigungssystem | |
DE19609613A1 (de) | Verfahren zur Erkennung eines Kollisionsrisikos und zur Vermeidung von Kollisionen in der Luftfahrt | |
DE102014209137A1 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs | |
EP1927866A1 (de) | Verfahren zum gitterbasierten Verarbeiten von Sensorsignalen | |
DE102015118067A1 (de) | Systeme und Verfahren zur Objekterkennung | |
DE102015122172A1 (de) | Scheinwerferbasierte Projetion von Mustern zur Vermessung räumlicher Eigenschaften einer Fahrzeugumgebung | |
DE102019215903A1 (de) | Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern | |
DE102007013664A1 (de) | Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger | |
DE102018222862A1 (de) | Verfahren und System zur Lokalisierung einer Akustikquelle relativ zu einem Fahrzeug | |
DE19621612A1 (de) | Verfahren und Vorrichtung zur optischen Freiraumüberwachung | |
DE102007049706A1 (de) | Verfahren zur Schätzung der Relativbewegung von Video-Objekten und Fahrerassistenzsystem für Kraftfahrzeuge | |
EP3921819B1 (de) | Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts | |
DE102022102443A1 (de) | Verbesserter sensorbetrieb | |
DE102018201570A1 (de) | Multiple-Target-Object-Tracking-Verfahren, Vorrichtung und Computerprogramm zum Durchführen eines Multiple-Target-Object-Tracking für bewegliche Objekte | |
DE69117896T2 (de) | Verfahren und Vorrichtung zur Verbesserung der Zuverlässigkeit von Flugzeugflugdaten | |
EP3663881B1 (de) | Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren | |
DE102010013093A1 (de) | Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs | |
DE10065180A1 (de) | Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren Durchführung | |
DE102013012778A1 (de) | Verfahren zum Detektieren eines sich bewegenden Fußgängers anhand von charakteristischen Merkmalen und optischen Flussvektoren eines Bilds, Kamerasystem und Kraftfahrzeug | |
EP3614299A1 (de) | Verfahren und anordnung zum erkennen von objekten an anlagen | |
EP0290633A1 (de) | Verfahren zum Erkennen von Änderungen in Fahrraum eines unbemannten Fahrzeuges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: EADS DEUTSCHLAND GMBH, 85521 OTTOBRUNN, DE |
|
8131 | Rejection |