DE69310695T2 - Verfahren zur Steuerungshilfe eines tieffliegenden Flugkörpers - Google Patents
Verfahren zur Steuerungshilfe eines tieffliegenden FlugkörpersInfo
- Publication number
- DE69310695T2 DE69310695T2 DE69310695T DE69310695T DE69310695T2 DE 69310695 T2 DE69310695 T2 DE 69310695T2 DE 69310695 T DE69310695 T DE 69310695T DE 69310695 T DE69310695 T DE 69310695T DE 69310695 T2 DE69310695 T2 DE 69310695T2
- Authority
- DE
- Germany
- Prior art keywords
- characteristic points
- point
- camera
- lines
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 21
- 239000013598 vector Substances 0.000 claims description 36
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000001914 filtration Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
- Die vorliegende Erfindung betrifft ein Verfahren zum Führen eines in niedriger Höhe fliegenden Luftfahrzeugs zum Ausweichen vor Gegenständen einer festliegenden, von einer Kamera an Bord des Luftfahrzeugs beobachteten Szene, die im wesentlichen längs der Bahn des Luftfahrzeugs orientiert ist, wobei für jedes von der Kamera empfangene aktuelle Bild:
- - Positionen von charakteristischen Punkten der Gegenstände im aktuellen Bild bestimmt und gespeichert werden;
- - die Positionen mit den entsprechenden Positionen der charakteristischen Punkte im vorhergehenden Bild verglichen werden;
- - im aktuellen Bild für jeden charakteristischen Punkt der Betrag und die Orientierung eines Geschwindigkeitsvektors bestimmt werden, die der Positionsabweichung des charakteristischen Punkts zwischen dem aktuellen Bild und dem vorhergehenden Bild entsprechen;
- - ein Punkt in dem aktuellen Bild bestimmt wird, in dem die Gesamtheit der Geschwindigkeitsvektoren zusammenlaufen.
- Das Problem, das der vorliegenden Erfindung zugrundeliegt, aber deswegen dennoch nicht ihren Umfang begrenzt, besteht darin, an Bord eines Hubschraubers, der bei Nacht in Bodennähe fliegt, die Hindernisse nahe seiner Bahn, die von einer Infrarotkamera beobachtet werden, zu visualisieren und bezüglich entfernter Hindernisse hervorzuheben.
- Eine Vorrichtung zur Durchführung des oben erwähnten Verfahrens ist aus der FR-A-2 642 529 bekannt. Sie liefert die Verschiebungsrichtung des Luftfahrzeugs und ermöglicht es in Verbindung mit einem Geschwindigkeitsmeßsystem, die Position des Luftfahrzeugs bezüglich des überflogenen Geländes zu bestimmen und dank einer Karte des Reliefs dem Gelände zu folgen.
- Für den Fall des obengenannten Problems ist eine Karte völlig nutzlos, denn dies betrifft Hindernisse mit niedriger Höhe wie Bäume, und da ein Hubschrauber diese Hindernisse streifen kann, muß die Bahn sehr rasch korrigiert werden.
- Die Infrarotkamera liefert das Bild der Landschaft um die Bahn herum, und der Pilot des Hubschraubers muß die Entfernung der Hindernisse nach ihrer Winkelgröße bestimmen, worin hohe Fehlerrisiken liegen, da ihre Größe nicht gut bekannt ist, wodurch eine ständige Aufmerksamkeit erforderlich ist.
- Die vorliegende Erfindung zielt darauf ab, diesen Nachteil zu vermeiden und jedes Risiko eines Unfalls zu beseitigen.
- Zu diesem Zweck betrifft sie ein Verfahren des oben erwähnten Typs, das dadurch gekennzeichnet ist, daß die Entfernung zwischen der Kamera und den Gegenständen bestimmt wird, indem jedem charakteristischen Punkt ein Entfernungswert relativ zur Kamera zugewiesen wird, der um so kleiner ist, je größer der zugeordnete Betrag des Geschwindigkeitsvektors ist und je geringer die Entfernung zwischen dem entsprechenden charakteristischen Punkt und dem Punkt des Zusammenlaufens ist, und daß der relative Entfernungswert zum Liefern einer Nähenangabe verwendet wird.
- Damit verfügt man über eine Karte mit der relativen Tiefe der verschiedenen charakteristischen Punkte, d.h. der Punkte oder kleinen Flecken, die leicht zu identifizieren sind und z.B. über ihre Form oder ihre Helligkeit von einem Bild zum anderen verfolgt werden können.
- Dann können sie leicht in Gruppen von benachbarten Punkten mit dem gleichen Geschwindigkeitsvektor einem Gegenstand zugeordnet werden, dessen Bild damit durch die Größe des Geschwindigkeitsvektors zugeordnet oder "markiert" ist, wobei die Größe von Rechenmitteln verwertet werden kann, die das Bild verarbeiten und eine entsprechende Information an den Piloten oder ein Steuerungssystem liefern.
- Mit den charakteristischen Punkten werden vorteilhafterweise Linien oder Oberflächenabschnitte gebildet, und es wird eine mittlere Relativentfernung der Linien oder Oberflächenabschnitte zu der Kamera wird bestimmt, indem ein weiterer Geschwindigkeitsvektor verwendet wird, der ein gewichtetes Mittel der Geschwindigkeitsvektoren der charakteristischen Punkte der Linien oder der Oberflächenabschnitte ist. Auf diese Weise können die charakteristischen Umrisse, Linien oder Oberflächen eines Gegenstandes räumlich kontinuierlich "markiert" werden, wodurch der Gegenstand besser definiert ist.
- Vorteilhafterweise wird nur ein Teil der charakteristischen Punkte verwendet, wobei von diesen ausgehend, die Linien oder Oberflächenabschnitte gebildet werden, die zu ein und demselben Bild eines Gegenstandes gehören. Hierdurch wird die bestimmte mittlere Relativentfernung ausgehend von diesen Linien oder Oberflächenabschnitten korrigiert und umgekehrt.
- Auf diese Weise können die Ergebnisse noch verbessert werden.
- Das oben angesprochene Verfahren betrifft isoliert betrachtete charakteristische Punkte, wobei bei der Bestimmung ihrer Relativentfernung für bestimmte Punkte ein grober Fehler auftreten kann, da eine der Positionen dieser charakteristischen Punkte beispielsweise durch die Kamera unkorrekt wiedergegeben und schlecht lokalisiert wird.
- Hinsichtlich der Lösung auf der Grundlage der Gesamtheiten, der Linien oder der Oberflächen von charakteristischen Punkte kann die Entfernungsbestimmung durch Verformungen, Verschiebungen von Reflexionspunkten oder Drehungen von Linien oder Oberflächen verfälscht werden.
- Da man den Linien oder Oberflächen des Bildes eines Gegenstandes häufig mehrere charakteristische Punkte zuordnen kann, die ihnen benachbart oder überlagert sind die zu diesem Bild gehören und einzeln eine Relativentfernung nach der Durchführung des oben angesprochenen Verfahrens liefern, kann ein grober Fehler dann erfaßt werden, wenn einem dieser charakte ristischen Punkte eine Relativentfernung zugeteilt ist, die sich stark von derjenigen der zugeordneten Linie oder Oberfläche unterscheidet, die den gleichen Gegenstand betrifft.
- Es kann dann versucht werden, den Fehler zu korrigieren oder einfach die fehlerhafte Relativentfernung nicht zu berücksichtigen. Wird dann über korrekte Relativentfernungen verfügt, die charakteristischen Punkten von wohldefinierten Positionen zugeordnet sind, dann können die relativen Geschwindigkeiten der zugeordneten Linien oder Oberflächen korrigiert werden. Umgekehrt können durch die verbesserte Bestimmungsgenauigkeit der Relativentfernungen der Linien oder Oberflächen über die Relativentfernung der individuell betrachteten charakteristischen Punkte erneut weniger große Fehler erfaßt werden, was zu einer iterativen schrittweisen Verbesserung der Genauigkeit der Bestimmung der Entfernungen der Gegenstände führt.
- Die ausgehend von den Linien oder Oberflächenabschnitten bestimmte mittlere Relativentfernung wird vorteilhafterweise durch charakteristische Punkte korrigiert, die an der Bildung der Linien oder Oberflächenabschnitte nicht beteiligt sind.
- Um ferner vorteilhaft bestmöglich Entfernungsfehler zu vermeiden, wird ein aktueller charakteristischer Punkt durch Vergleich seiner Position mit vorhergesagten Positionen von vergangenen charakteristischen Punkten identifiziert.
- Um absolute und nicht mehr nur relative Entfernungen zu bestimmen, wird, bei Kenntnis der Entfernung eines der Gegenstände, das Produkt aus der Entfernung eines Gegenstands zur Kamera und seinem relativen Geschwindigkeitsvektor im Verhältnis seines Geschwindigkeitsvektors zu seiner Entfernung vom Punkt des Zusammentreffens als konstant angesehen, um diese Entfernung zu bestimmen.
- Weiterhin wird die Nähenangabe eines Punktes vorteilhafterweise auf einem Sichtgerät der von der Kamera aufgenommenen Ansichten angezeigt.
- Die Erfindung wird mit Hilfe der folgenden Beschreibung der bevorzugten Ausführungsform des erfindungsgemäßen Verfahrens unter Bezug auf die beigefügten Zeichnungen besser verstanden, darin zeigen:
- - Fig. 1 eine Hubschrauberkamera, die eine Szene beobachtet;
- - Fig. 2 das Bild der Szene;
- - Fig. 3 Teilbilder von Gegenständen aus Fig. 2 sowie das entsprechende folgende Teilbild, und
- - Fig. 4 ein Diagramm zur Veranschaulichung der Verarbeitungsschritte der Bilder zum Bestimmen der gesuchten Relativentfernung:
- Eine an Bord eines Hubschraubers 2 angebrachte Kamera 1, deren Visierachse 3 (Fig. 1) nach dessen Bahn orientiert ist, liefert ein Bildsignal, das für eine Folge von Bildern 4 einer beobachteten Szene steht, von denen eine in Fig. 2 dargestellt ist.
- Die Szene umfaßt festliegende Gegenstände, hier zwei Bäume 5 und 6 in unterschiedlichen Entfernungen von der Kamera 1. Die Bilder 4 werden in einem ausreichenden Rhythmus aufgenommen, damit das Bild der Gegenstände leicht verfolgt werden kann und sich nicht von einem Bild zum anderen wesentlich verformt. Bei diesem Beispiel besitzt der weiter entfernte Baum 6 eine größere Winkelhöhe als der Baum 5.
- Das Bild 7, 8 jedes Baums 5, 6 ist durch eine Folge von krummlinigen Segmenten 9 definiert, die den Umriß des Baumes bilden, sowie durch andere krummlinige Segmente 10, die relativ zu Einzelheiten im Inneren der Bilder 7, 8 liegen.
- Die Punkte, die die Segmente 9, 10 bilden, sind in der Praxis mehrere benachbarte Reihen von Elementarpunkten und heißen charakteristische Punkte. Die charakteristischen Punkte sind also tatsächlich kleine, in diesem Fall nebeneinanderliegende Flecken, die einen hohen Intensitätsgradienten oder gegebenenfalls einen Farbgradienten in Richtung senkrecht zu dem Segment aufweisen, wodurch dieser Letztere leicht ausfindig gemacht werden kann.
- Die charakteristischen Punkte (oder Flecken), deren obengenannter Gradient in zwei Richtungen erhöht ist, z.B. an der Winkelverbindung von zwei Segmenten 9, heißen spezifische charakteristische Punkte, denn ihre Position, die bezüglich zweier Richtungen definiert ist, kann mit Präzision bestimmt werden.
- Dagegen weisen die zu einem Segment 9 gehörenden charakteristischen Punkte allgemein keinen Intensitätsgradienten in zu dem Segment 9 paralleler Richtung auf, so daß ihre individuelle Position nur nach der Länge oder der Form des Segments 9 geschätzt werden kann.
- Fig. 3 stellt drei spezifische charakteristische Punkte 11, 13 und 15 des Bildes 7 sowie drei weitere 17, 19 und 21 des Bildes 8 dar.
- Ebenso sind die Positionen der obengenannten spezifischen charakteristischen Punkte dargestellt, die dem folgenden Bild entsprechen, also 12 bzw. 14 und 16 sowie 18, 20 und 22.
- Verfolgt man die sechs Geraden, die die beiden spezifischen, homologen charakteristischen Punkte der beiden Bilder verbinden, dann bestimmt man einen gemeinsamen Punkt des Zusammenlaufens oder einen Expansionspunkt 23. Die Visierlinie 3 verläuft durch den Expansionspunkt 23, und alle Punkte des Bildes 4 entfernen sich radial von einem Bild 4 zum folgenden von dem Expansionspunkt 23 in dem Falle, in dem sich die Kamera 1, wie hier der beobachteten Szene nähert.
- Dann wird mit Hilfe eines Rechenblocks 1A, der von der Kamera 1 das Signal empfängt, das für die Folge von Bildern 4 repräsen - tativ ist, und für jeden spezifischen charakteristischen Punkt, wie beispielsweise 11, ein Geschwindigkeitsvektor bestimmt, der von der Ausgangsposition 11 ausgeht und an der Endposition 12 endet. Die spezifischen charakteristischen Punkte, wie beispielsweise 11, wurden vorher von dem Rechenblock 1A identifiziert, wobei eine Software eines bekannten Typs zur Formerkennung verwendet wird.
- Die Länge eines Vektors , der von dem Expansionspunkt 23 zu dem spezifischen charakteristischen Punkt, wie beispielsweise 11, verläuft, wird ebenfalls von dem Rechenblock 1A berechnet, der dann die Länge des Vektors durch diejenige des Vektors dividiert, um einen relativen Geschwindigkeitsvektor zu erhalten, der dem Geschwindigkeitsvektor ähnlich ist, aber eine durch das obengenannte Verhältnis definierte Länge aufweist. Es ist zu bemerken, daß relative Geschwindigkeitsvektoren auch erhalten werden könnten, indem die Länge des Geschwindigkeitsvektors durch diejenige des Vektors dividiert wird, der den Expansionspunkt 23 mit der Endposition 12 des spezifischen charakteristischen Punktes und nicht mit der Ausgangsposition 11 verbindet.
- In Fig. 3 ist gezeigt, daß die spezifischen charakteristischen Punkte 11, 13 und 15 des Bildes 7 des Baumes 5 eine höhere Geschwindigkeit als diejenige der charakteristischen Punkte 17, 19 und 21 bezüglich des Baums 6 aufweisen, während die Vektoren im wesentlichen gleich groß sind. Die relativen Geschwindigkeitsvektoren des Bildes des der Kamera 1 am nächsten liegenden Baums 5 sind demnach größer als diejenigen bezüglich des Baums 6. Daraus wird abgeleitet, daß der Baum 5, der scheinbar weiter entfernt ist, da das Bild 7 kleiner ist, derjenige ist, der der Kamera 1 näher ist.
- Bei diesem Beispiel ist keine Informatikauswertung der bestimmten Relativentfernung vorgesehen, um die Bahn zu korrigieren, so daß eine nicht dargestellte Einrichtung zur Wiedergabe des Bildes 4 eine relative Nähenangabe liefert, hier, indem der Baum 5 in dem Bild 4 rot erscheint.
- Darüber hinaus liefert das Verhältnis zwischen den Beträgen der relativen Geschwindigkeitsvektoren der spezifischen charakteristischen Punkte eines der Bäume 5, 6 (im wesentlichen gleich für denselben Baum) und derjenigen des anderen Baums den Anteil zwischen den jeweiligen Entfernungen, die jeden Baum 5, 6 von der Kamera 1 trennen. Das wiedergegebene Bild des Baums 6 erscheint in mehr oder weniger blaßem Rosa, je nachdem, ob der obengenannte Anteil der Entfernungen von dem Einheitsverhältnis entfernt ist oder nicht.
- Das gleiche Verfahren kann verwendet werden, indem eine größere Anzahl charakteristischer Punkte, dann (jedoch) nichtspezifischer Punkte, wie z.B. Segmente 9 und 10 und sogar Oberflächenabschnitte verarbeitet werden, die durch charakteristische Punkte gebildet oder begrenzt sind, wie hier beispielsweise, eine Oberfläche, die durch Segmente 10 begrenzt ist und die eine starke Leuchtkraft oder eine Farbe aufweist, die sich von derjenigen ihrer Nachbarschaft lokal unterscheidet.
- Der Algorithmus von Canny-Deriche ermöglicht die Extraktion oder Ortung der Umrisse, während der Algorithmus von Giraudon die Verkettung der Umrisse ermöglicht, um ein Segment zu erhalten.
- Die bekannte Software zur Formerkennung führt dann eine zeitliche Fortschreibung des Bildes der Segmente und der Oberflächen 9, 10 durch und definiert über die fiktive Verschiebung der Segmente und Oberflächen 9, 10 aus ihrer Position in die folgende eine punktweise Entsprechung, woraus wie oben erwähnt die relativen Geschwindigkeitsvektoren jedes der charakteristischen Punkte berechnet werden, die die Segmente und die Oberflächen 9, 10 bilden.
- Dann wird ein Mittelwert für die relativen Geschwindigkeitsvektoren ein und desselben Segments oder der Oberfläche 9, 10 berechnet, und es wird eine Relativentfernung definiert, die jedem Segment oder jeder Oberfäche 9, 10 eigen ist.
- Der oben erwähnte Mittelwert der relativen Geschwindigkeitsvektoren kann durch eine gleichmäßige Gewichtung durch jeden relativen Geschwindigkeitsvektor erhalten werden, der ihn erzeugt, er kann aber auch erhalten werden, indem die relativen Geschwindigkeitsvektoren stärker gewichtet werden, bei denen die Position des zugehörigen charakteristischen Punktes mit Präzision bestimmt wurde, z.B. wenn es sich um einen spezifischen charakteristischen Punkt handelt, der von nichtspezifischen Punkten umgeben ist.
- Die Segmente oder Oberflächen 9, 10, die zu dem Bild 7, 8 eines gleichen Baums 5, 6 gehören, sind aufgrund ihrer Zugehörigkeit zu der Bildoberfläche, die durch den Umriß des Baums 5, 6 begrenzt ist, im wesentlichen gleichen Werten für die Relativentfernung zugeordnet, so daß der gesamte Umriß jedes Baums 5, 6 und die Oberflächen 10 seines Bildes 7, 8 mit der gleichen roten Farbe oder in rosa erscheinen und bequem die Erkennung der Form des Baums ermöglichen.
- Das Verfahren wird vorteilhafterweise auf spezifische, also identifizierte charakteristische Punkte sowie auf Segmente oder Oberflächen 9, 10 angewandt, für die die charakteristischen Punkte im allgemeinen nicht identifiziert sind, und ihre Verschiebung von einem Bild zum anderen wird durch die Korrelation der Formen der Segmente oder Oberflächen 9, 10, also mit einer oder zwei Dimensionen durchgeführt, die den Nachteil aufweisen, daß sie sich verformen und damit teilweise den geschätzten Geschwindigkeitsvektor verfälschen können.
- Fig. 4 ist ein Flußdiagramm der Schritte des obengenannten Verfahrens. Dort sind fünf Schrittphasen (30, 40, 50, 60 und 70) definiert, nämlich:
- - eine Extraktion von spezifischen charakteristischen Punkten und "charakteristischen" Segmenten 9,
- - eine Zuordnung oder Identifizierung der spezifischen charakteristischen Punkte oder der zuletzt beobachteten charaktenstischen Segmente an vorgesehenen Positionen, die aus den vorher identifizierten, spezifischen, charakteristischen Punkten oder charakteristischen Segmenten extrapoliert sind,
- - eine Validierung der Zuordnungen,
- - eine Zeitfilterung der vorgesehenen Positionen, deren Ergebnis in einer Schleife zur Zuordnungsphase übertragen wird, und
- - eine Berechnung der Relativentfernung.
- In der ersten Phase 30 zur Extraktion werden die spezifischen charakteristischen Punkte bei 31 geortet, und ihre gemessenen Positionen werden bei 33 gespeichert; ebenso werden die aus charakteristischen Punkten gebildeten Segmente 9, 10 bei 32 geortet, und ihre gemessenen Positionen werden bei 34 gespeichert.
- In der Zuordnungsphase 40 wird darauf abgezielt, eine Zeitverfolgung der verschiedenen spezifischen Punkte und charakteristischen Segmente durchzuführen, um Fehler aufgrund dessen zu vermeiden, daß ein spezifischer charakteristischer Punkt oder ein charakteristisches Segment mit einem anderen verwechselt wird, wodurch die Bestimmung seiner Geschwindigkeit verfälscht würde. Zu diesem Zweck werden zwei Korrelationen verwendet.
- Die erste Korrelierung ist zeitlich und besteht darin, durch Extrapolation nach seinen letzten Positionen die wahrscheinlichste Position der Spur jedes spezifischen charakteristischen Punkts und der Segmente oder Oberflächen 9, 10 vorherzusagen. Die zweite Korrelation ist räumlich und besteht darin, spezifische charakteristische Punkte benachbarten Segmenten oder Oberflächen 9, 10 zuzuordnen, die zum Bild 7, 8 des gleichen beobachteten Gegenstands 5, 6 gehören, um die Abweichungen der Geschwindigkeitsvektoren zu erfassen, die sich bezüglich eines gleichen Gegenstands nicht stark voneinander unterscheiden können.
- Schließlich empfängt man bei 41, ausgehend von einem Ausgang der Filterphase 60, eine neue Vorhersage der extrapolierten Positionen der spezifischen charakteristischen Punkte, während die entsprechenden gemessenen Positionen, die bei 33 gespeichert werden, ebenfalls geliefert werden.
- Durch den Vergleich der Entfernungen zwischen jeder vorhergesehenen Position und der nächsten gemessenen Position wird jeder spezifische charakteristische Punkt identifiziert, der bei 33 wie der bereits identifizierte behandelt wird, dessen vorhergesehene Position in der Nähe derjenigen liegt, die gerade beobachtet werden (33).
- Ebenso wird bei den Segmenten und Oberflächen 9, 10 in einem Schritt 42 verfahren, wo man aus einem Ausgang der Filterphase 60 eine neue Vorhersage der Positionen empfängt, die ausgehend von weiter unten definierten Zeitspuren der Segmente und Oberflächen extrapoliert sind. Diese Vorhersage wird mit den gemessenen Positionen verglichen (34), um die vorgesehene Position eines Segments oder einer Oberfläche 9, 10 zu behalten, bei denen die Positionen der charakteristischen Punkte global die beste Korrelation mit denjenigen für das Segment oder für die Oberfläche 9, 10 aufweisen, wodurch dieses Letztere identifiziert werden kann.
- Außerdem wird das Ergebnis des Schritts 41 zur Fortschreibung der spezifischen charakteristischen Punkte geliefert, um den Schritt 42 durchzuführen.
- Damit kann beispielsweise eine zu große Ungleichheit zwischen den Geschwindigkeiten von zugehörigen spezifischen charakteristischen Punkten erfaßt werden, die zu ein und demselben Segment 9 gehören würden, oder die dem Segment 9 nicht zugehören, aber zu dem gleichen Bild eines Gegenstandes 7, 8 gehören, oder es kann eine Ungleichheit von spezifischen charakteristischen Punkten bezüglich des zugehörigen Segments 9 erfaßt werden.
- Durch diese Zuordnung kann also erfaßt werden, daß ein spezifischer charakteristischer Punkte bezüglich der anderen, zugehörigen spezifischen charakteristischen Punkte eine anormale Geschwindigkeit besitzt. Falls das Segment oder die Oberfläche 9, 10 eine anormale mittlere Geschwindigkeit besitzt, kann es auch sein, daß das Segment oder die Oberfläche 9, 10 ein Reflex ist, der sich sehr rasch auf einer sich drehenden Oberfläche verschiebt, oder umgekehrt ein Reflex, der auf einer sich drehenden Kugelfläche unbeweglich bleibt. Dagegen besitzen die spezifischen charakteristischen Punkte, die allgemein dem Bild von Anschlußpunkten von materiellen Linien (9) entsprechen, die Geschwindigkeit der materiellen Punkte, die sie darstellen.
- Damit kann ein Fehler erfaßt werden, der eine ganze Oberfläche betreffen kann, und zwar aufgrund der Geschwindigkeitserfassung eines Reflexes, der sich mit einer Phasengeschwindigkeit verschiebt, d.h. unabhängig von den Gesetzen der Mechanik jeden Wert annehmen kann, der keinerlei Bezug zur wirklichen Geschwindigkeit der reflektierenden Oberfläche aufweist.
- In der Validierungsphase 50 werden bei 51 die aufgenommenen Geschwindigkeitsungleichheiten ausgewertet, wobei im Falle einer deutlichen Ungleichheit der obengenannten Geschwindigkeiten eine andere Zuordnung des schlecht identifizierten Segments oder der Oberfläche 9, 10 gesucht wird.
- Diese Suche wird unter den Punkten eines Bildfensters mit begrenzter Größe durchgeführt, das in seinem Zentrum den charakteristischen Punkt, der einer Spur zuzuordnen ist, sowie die benachbarten Spuren aufweist, die Kandidaten sind, um zu erkennen, daß dieser charakteristische Punkt sie betrifft. Kann keine bessere Zuordnung gefunden werden, dann werden die entsprechenden Daten für die folgenden Schritte maskiert.
- Es ist zu bemerken, daß es praktisch von Vorteil ist, eine Zuordnung der Segmente und Oberflächen 9, 10 durchzuführen, indem zunächst die Zuordnungsergebnisse der zugehörigen spezifischen charakteristischen Punkte verwendet werden, wodurch eine Vorzuordnung der Segmente oder Oberflächen 9, 10 realisiert wird, auf die dann die normale Zuordnung erfolgt, deren Suchfeld damit begrenzt wird.
- Die validierten Zuordnungen der Segmente und Oberflächen 9, 10 dienen hier umgekehrt bei 52 zur Validierung der bei 41 bestimmten spezifischen charakteristischen Punkte nach dem bei 51 dargelegten Prinzip, sowie zum Verfeinern der gemessenen Positionen.
- Die Ergebnisse der Schritte 51 und 52 werden dann bei 61 bzw. 62 jeweils einer Zeitfilterung unterzogen, um die Spur zu definieren, der die charakteristischen Punkte von einem Punkt zum anderen folgen und um durch Extrapolation die zukünftigen Positionen der spezifischen charakteristischen Punkte sowie der Segmente und Oberflächen 9, 10 vorherzusagen, wobei diese Ergebnisse wie angegeben in den Schritten 42 und 41 von Nutzen sind.
- Bei diesem Beispiel werden mehr als zwei frühere Bilder zur Vorhersage der zukünftigen Positionen verwendet, und die Spuren werden ausgehend von Zustandsvariablen modeilhaft dargestellt, die die entsprechenden beobachteten, aufeinanderfolgenden Positionen und ihre Zeitableitungen sind. Die obengenannten Variablen werden einer Kalman-Filterung unterzogen, wodurch die neuen Werte der Variablen berücksichtigt und der Einfluß der alten Werte schrittweise aufgehoben werden kann, und wodurch vor allem Vorhersagen zu den Positionen der Segmente getroffen werden können, die für die Zuordnung der Spuren erforderlich sind.
- Der Schritt 70 entspricht der oben dargelegten Berechnung der Relativentfernung und kann ausgehend von den bei 60 vorgesehenen Positionen durchgeführt werden, wodurch aus der entsprechenden Filterung profitiert werden kann, oder es kann ausgehend von den bei 50 ausgegebenen letzten Positionen durchgeführt werden.
- Es ist zu bemerken, daß dann, wenn durch jedes bekannte Mittel die absolute Entfernung der Kamera 1 von einem der Bäume 5, 6 an einem a priori beliebig gegebenen Punkt bestimmt wurde, das Bild des gegebenen Punktes einem spezifischen charakteristischen Punkt des entsprechenden Bildes 7, 8 zugeordnet werden kann. Diese Zuordnung kann von der Formerkennungssoftware durchgeführt werden, wenn sie feststellt, daß das Bild des gegebenen Punktes im Inneren des Umrisses des Bildes 7, 8 des Baums 5, 6 liegt. Dann wird jedem anderen charakteristischen Punkt des Bildes 4 eine absolute Entfernung bezüglich der Kamera 1 zugeschrieben, die umgekehrt proportional zu der Relativgeschwindigkeit dieses anderen charakteristischen Punktes ist, d.h. eine absolute Entfernung, die gleich der absoluten Entfernung des oben gegebenen Punktes zu der Kamera 1 ist, multipliziert mit dem Betrag des relativen Geschwindigkeitsvektors bezüglich des gegebenen Punktes (oder des zugehörigen charakteristischen Punktes) und dividiert ducrh den Betrag des homologen relativen Geschwindigkeitsvektors , der dem anderen betroffenen charakteristischen Punkt entspricht.
- Bei diesem Beispiel ist vorgesehen, daß die charakteristischen Punkte blinken, die einer absoluten Entfernung unter einem bestimmten Schwellenwert entsprechen.
Claims (9)
1. Verfahren zum Führen eines in niedriger Höhe fliegenden
Luftfahrzeugs zum Ausweichen vor Gegenständen (5) einer
festliegenden, von einer Kamera (1) an Bord des Luftfahrzeugs
beobachteten Szene, die im wesentlichen längs der Bahn des
Luftfahrzeugs orientiert ist, wobei für jedes von der Kamera (1)
empfangene aktuelle Bild:
- Positionen (12) von charakteristischen Punkten der
Gegenstände (5) im aktuellen Bild bestimmt und gespeichert werden;
- die Positionen (12) mit den entsprechenden Positionen der
charakteristischen Punkte im vorhergehenden Bild (11) verglichen
werden;
- im aktuellen Bild für jeden charakteristischen Punkt der
Betrag und die Orientierung eines Geschwindigkeitsvektors ( )
bestimmt werden, die der Positionsabweichung des
charakteristischen Punkts zwischen dem aktuellen Bild (12) und dem
vorhergehenden Bild (11) entsprechen;
- ein Punkt (23) in dem aktuellen Bild bestimmt wird, in dem
die Gesamtheit der Geschwindigkeitsvektoren ( )
zusammenlaufen,
dadurch gekennzeichnet, daß die Entfernung zwischen der Kamera
(1) und den Gegenständen bestimmt wird, indem jedem
charakteristischen Punkt ein Entfernungswert relativ zur Kamera (1)
zugewiesen wird, der um so kleiner ist, je größer der zugeordnete
Betrag des Geschwindigkeitsvektors ( ) ist und je geringer die
Entfernung zwischen dem entsprechenden charakteristischen
Punkt (11, 12) und dem Punkt (23) des Zusammenlaufens ist, und
daß der relative Entfernungswert zum Liefern einer Nähenangabe
verwendet wird.
2. Verfahren nach Anspruch 1, bei dem mit den
charakteristischen Punkten Linien (9) oder Oberflächenabschnitte gebildet
werden und eine mittlere Relativentfernung der Linien (9) oder
Oberflächenabschnitte zu der Kamera (1) verwendet wird, indem
ein weiterer Geschwindigkeitsvektor bestimmt wird, der ein
gewichtetes Mittel der Geschwindigkeitsvektoren ( ) der
charakteristischen Punke (11) der Linien (9) oder
Oberflächenabschnitte ist
3. Verfahren nach Anspruch 2, bei dem nur ein Teil der
charakteristischen Punkte (11) verwendet wird, von denen ausgehend
die Linien (9) oder Oberflächenabschnitte gebildet werden und
die zu ein und demselben Gegenstandsbild gehören, um die
mittlere Relativentfernung zu korrigieren, die ausgehend von diesen
Linien (9) oder Oberflächenabschnitten gebildet sind, und
umgekehrt.
4. Verfahren nach einem der Ansprüche 2 und 3, bei dem die
ausgehend von den Linien (9) oder Oberflächenabschnitten bestimmte
mittlere Relativentfernung durch charakteristische Punkte
korrigiert wird, die der Bildung der Linien (9) oder
Oberflächenabschnitte nicht zugehörig sind.
5. Verfahren nach einem der Ansprüche 1 bis 4, bei dem ein
aktueller charakteristischer Punkt (12) durch Vergleich seiner
Position mit vorhergesagten Positionen von vergangenen
charakteristischen Punkten (11) identifiziert wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, bei dem das
Produkt aus der Entfernung (5) eines Gegenstands (5) zur Kamera
(1) und seinem relativen Geschwindigkeitsvektors ( ) als
konstant angesehen wird, um diese Entfernung zu bestimmen
7.
Verfahren nach einem der Ansprüche 1 bis 6, bei dem die
Nähenangabe eines Punktes auf einem Bildschirm zur Visualisierung
der von der Kamera geschossenen Aufnahmen angezeigt wird.
8. Verfahren nach Anspruch 7, bei dem die Nähenangabe farbig
angezeigt wird.
9. Verfahren nach Anspruch 7, bei dem die Nähenangabe die
Leuchtstärke des visualisierten Punktes ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9215512A FR2699667B1 (fr) | 1992-12-22 | 1992-12-22 | Procédé d'aide au pilotage d'un aéronef volant à basse altitude. |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69310695D1 DE69310695D1 (de) | 1997-06-19 |
DE69310695T2 true DE69310695T2 (de) | 1998-01-08 |
Family
ID=9436945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69310695T Expired - Fee Related DE69310695T2 (de) | 1992-12-22 | 1993-11-30 | Verfahren zur Steuerungshilfe eines tieffliegenden Flugkörpers |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP0604252B1 (de) |
DE (1) | DE69310695T2 (de) |
FR (1) | FR2699667B1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10258545A1 (de) * | 2002-09-23 | 2004-04-01 | Stefan Reich | Stabilisierungssystem für Flugkörper |
DE10349823A1 (de) * | 2003-10-24 | 2005-05-25 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Messen von Abständen zwischen einem sich bewegenden Kraftfahrzeug und Objekten |
US7400950B2 (en) | 2002-09-23 | 2008-07-15 | Stefan Reich | Optical sensing system and system for stabilizing machine-controllable vehicles |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0019399D0 (en) | 2000-08-07 | 2001-08-08 | Bae Systems Plc | Height measurement enhancemsnt |
FR2927262B1 (fr) * | 2008-02-13 | 2014-11-28 | Parrot | Procede de pilotage d'un drone a voilure tournante |
CN116745720A (zh) * | 2021-03-15 | 2023-09-12 | 深圳市大疆创新科技有限公司 | 无人机的控制方法、装置及无人机 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4695959A (en) * | 1984-04-06 | 1987-09-22 | Honeywell Inc. | Passive range measurement apparatus and method |
GB2212687A (en) * | 1987-11-17 | 1989-07-26 | Gen Electric Co Plc | Vehicle navigation |
-
1992
- 1992-12-22 FR FR9215512A patent/FR2699667B1/fr not_active Expired - Fee Related
-
1993
- 1993-11-30 DE DE69310695T patent/DE69310695T2/de not_active Expired - Fee Related
- 1993-11-30 EP EP93402892A patent/EP0604252B1/de not_active Expired - Lifetime
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10258545A1 (de) * | 2002-09-23 | 2004-04-01 | Stefan Reich | Stabilisierungssystem für Flugkörper |
DE10258545B4 (de) * | 2002-09-23 | 2008-01-24 | Stefan Reich | Verfahren und System zur Stabilisierung einer Translationsbewegungsgröße eines Flugkörpers |
US7400950B2 (en) | 2002-09-23 | 2008-07-15 | Stefan Reich | Optical sensing system and system for stabilizing machine-controllable vehicles |
DE10349823A1 (de) * | 2003-10-24 | 2005-05-25 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Messen von Abständen zwischen einem sich bewegenden Kraftfahrzeug und Objekten |
Also Published As
Publication number | Publication date |
---|---|
FR2699667A1 (fr) | 1994-06-24 |
FR2699667B1 (fr) | 1995-02-24 |
EP0604252B1 (de) | 1997-05-14 |
DE69310695D1 (de) | 1997-06-19 |
EP0604252A1 (de) | 1994-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112005000929B4 (de) | Automatisches Abbildungsverfahren und Vorrichtung | |
DE69516959T2 (de) | Stabilisierungsabschätzung einer zielbereichlokalisierung, abgeleitet von mehrfacherfassten marksteinbereichen auf einem videobild | |
DE60308413T2 (de) | Verfahren und vorrichtung zum bearbeiten und analysieren von digitalen gelände daten. | |
DE60307911T2 (de) | Verfahren zum Leiten eines Flugzeuges während der Endphase der Landung und dazugehörige Vorrichtung | |
DE69015653T2 (de) | Konflikt-Entdeckung und -Lösung zwischen bewegten Gegenständen. | |
DE69523698T2 (de) | Verfahren und Gerät zum richtungsselektiven Zählen von sich bewegenden Objekten | |
DE69006709T2 (de) | System zum Bestimmen der Position an Bord eines Luftfahrzeugs und seine Anwendungen. | |
DE4444593C2 (de) | Entfernungsmeßvorrichtung | |
CH648656A5 (de) | Photogrammetrisches verfahren und photogrammetrische vorrichtung fuer fluggeraete und raumflugkoerper. | |
EP2381207B1 (de) | 3D-Zielvermessung und Zieleinweisung aus IR-Daten | |
DE102004018813A1 (de) | Verfahren zur Erkennung und/oder Verfolgung von Objekten | |
DE3937427A1 (de) | Bildverarbeitungsgeraet | |
EP2060873B1 (de) | Verfahren zur Stützung der Trägheitsnavigation eines Flugkörpers | |
EP1521979B1 (de) | Verfahren zur beobachtung einer vielzahl von objekten | |
DE69829091T2 (de) | Messungsgerät | |
DE102018123393A1 (de) | Erkennung von Parkflächen | |
DE4109159C2 (de) | Verfahren und Vorrichtung zum Verfolgen eines einem Fahrzeug vorausfahrenden Fahrzeugs | |
DE4416557A1 (de) | Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers | |
EP3663881B1 (de) | Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren | |
DE69310695T2 (de) | Verfahren zur Steuerungshilfe eines tieffliegenden Flugkörpers | |
DE69213897T2 (de) | Vorrichtung zum Messen des Abstandes zwischen Fahrzeugen | |
AT511460B1 (de) | Verfahren zur bestimmung der position eines luftfahrzeugs | |
DE3626030C2 (de) | Verfahren und Vorrichtung zur Entdeckung einer bevorstehenden Sichtverbindungsunterbrechung zwischen einem Flugzeug und einem Ziel, insbesondere in einem Laser-Feuerleitsystem | |
DE102005036782A1 (de) | Verfahren zum Betrieb eines Bildauswertesystems zur Entfernungsmessung an einem Fahrzeug | |
DE102008008499B4 (de) | Verfahren zur rechnergestützten Berechnung der Bewegung eines Objekts aus Sensordaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |