DE3805252A1 - Abbildungssystem - Google Patents

Abbildungssystem

Info

Publication number
DE3805252A1
DE3805252A1 DE19883805252 DE3805252A DE3805252A1 DE 3805252 A1 DE3805252 A1 DE 3805252A1 DE 19883805252 DE19883805252 DE 19883805252 DE 3805252 A DE3805252 A DE 3805252A DE 3805252 A1 DE3805252 A1 DE 3805252A1
Authority
DE
Germany
Prior art keywords
sensor
aircraft
imaging system
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19883805252
Other languages
English (en)
Inventor
George Brown
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BAE Systems Electronics Ltd
Original Assignee
GEC Marconi Ltd
Marconi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEC Marconi Ltd, Marconi Co Ltd filed Critical GEC Marconi Ltd
Publication of DE3805252A1 publication Critical patent/DE3805252A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

Die Erfindung betrifft ein Abbildungssystem und insbesondere ein luftgestütztes Abbildungssystem zum Unterscheiden von Ob­ jekten unterschiedlicher Größe und unterschiedlicher Ge­ stalt, die in unterschiedlichen Entfernungen zu sehen sind.
Bekannte Abbildungsalgorithmen, insbesondere zur Verwendung bei Luft-Luft- und Luft-Boden-Szenarien, benutzen die Infor­ mation, die in einer Folge von getrennten Abbildungen verfüg­ bar ist, die beispielsweise durch ein nach vorne sehendes In­ frarot (forward looking infra-red; FLIR) oder ein Fernseh-Ab­ bildungssystem (TV type imager) geschaffen worden ist. Jedoch werden durch ein solches System verschiedenartige Objekt-Typen in allen Entfernungs-Bereichen und Richtungen erfaßt.
Die Abbildungen werden diffus sein und können verwirrend sein, da beispielsweise eine Kuh, ein Haus und ein Fahrzeug Abbildungen derselben scheinbaren Größe gleichwohl bei unter­ schiedlichen Entfernungen verursachen können. Herkömmliche Algorithmen sind nicht in der Lage, zwischen solchen Objek­ ten zu unterscheiden. Das könnte nachteilig sein, wenn nach einem bestimmten Objekt gesucht wird oder diesem gefolgt wird oder falls das Abbildungssystem einen Teil eines Naviga­ tionsprozesses darstellt.
Falls dem Abbildungssystem auch Entfernungsinformationen zur Verfügung ständen, könnten die Objekte bezüglich ihrer Ent­ fernung und ihrer relativen Größe innerhalb der Abbildung un­ terschieden werden; dementsprechend könnte die Konsistenz der Erkennungsgenauigkeit stark erhöht werden. Jedoch ist das direkte Erhalten einer nach vorne gerichteten Entfer­ nungsinformation von einem Luftfahrzeug aus nicht einfach und bei gewissen Umständen können aktive Systeme, wie bei­ spielsweise Radar- oder Laserentfernungssucher nicht angewen­ det werden.
Nach der vorliegenden Erfindung wird ein Abbildungssystem ge­ schaffen mit einem Abbildungssensor zum Betrachten eines Bo­ denbereiches und zum Erhalten einer Abbildung davon, einem oder mehreren weiteren Sensoren zum Messen ausgewählter Para­ meter bezüglich der relativen Position des Abbildungssensors in bezug auf den Bodenbereich und Einrichtungen zur Verwen­ dung des Ausgangssignals des oder jedes weiteren Sensors, um Abschnitten der Abbildung, zumindest teilweise, in Abhängig­ keit von ihrer Lage innerhalb des Sichtfeldes der Abbildungs­ einrichtung, Entfernungsbereiche zuzuschreiben.
Das Abbildungssystem kann eingerichtet sein, um einen Boden­ bereich von einem Luftfahrzeug aus zu betrachten.
Vorzugsweise umfassen die weiteren Sensoren Einrichtungen zum Messen des Abstandes zum Erdboden, der barometrischen Höhe und der Fluglage (Rollen, Nicken und Gieren) des Flug­ zeugs. Durch das Verwenden derartiger Daten mit den Abbil­ dungsdaten vom Sensor kann jedem Abschnitt des Bildes und somit auch jedem individuellen, innerhalb des Bildes entdeck­ ten Objekt eine Entfernung zugeschrieben werden. Objekte können dann bezüglich ihrer Positionen und ihrer relativen Abmessungen innerhalb des Bildes klassifiziert werden.
In einem zweiten Gesichtspunkt schafft die Erfindung ein Ab­ bildungsverfahren, das die Schritte aufweist, eine Abbildung einer Bodenregion mittels eines luftgestützten Abbildungssen­ sors zu erhalten, der ein Sichtfeld besitzt, die Höhe H und den Erdbodenabstand h des Sensors über einen Zeitraum zu messen und die Werte von H und h zu vergleichen, um einen Hinweis auf Geländeunebenheiten zu liefern, und Aufbringen der erhaltenen Unebenheitsdaten auf die Abbildung des Abbil­ dungssensors, um Abschnitten der Abbildung zumindest ab­ schnittsweise in Abhängigkeit ihrer Lage innerhalb des Sicht­ feldes des Abbilders, Entfernungen zuzuordnen.
Fig. 1 der begleitenden Zeichnungen zeigt, wie die Kenntnis der barometrischen Höhe und des Bodenabstandes eines Luft­ fahrzeugs helfen kann, eine Entfernungskarte der überschau­ ten Fläche noch genauer zu bestimmen. Ein typischer elek­ trooptischer (EO) Sensor, der allgemein ein Infrarotsensor ist, wird am Luftfahrzeug an einer Vertiefung aus der Hori­ zontalen befestigt und hat ein vertikales Sichtfeld 2α. Fig. 1a gibt den idealisierten Fall wieder, in dem der Boden per­ fekt eben ist und das Luftfahrzeug geradeaus und mit gleich­ bleibender Höhe in der Höhe h fliegt. Es geht aus dem Dia­ gramm klar hervor, daß für den Fall, daß ein Objekt auf der Bildmittellinie zu sehen ist, dessen horizontale Entfernung R vom Flugzeug gleich h/tan d ist und daß sein schrägliegen­ der Abstand h/sin d ist. Aus der Kenntnis des Sichtfeldes 2α in senkrechter Richtung zusammen mit der Anzahl der TV Linien in der Gesamtabbildung kann jeder Linie eine Entfer­ nung zugeschrieben werden. Dieses wird natürlich aufgrund des schrägen Betrachtungswinkels keine lineare Beziehung sein.
Es ist klar, daß die in Fig. 1 gezeigte Situation verein­ facht ist und daß der Flug in der Realität nicht geradeaus und mit gleichbleibender Höhe stattfindet und das Gelände nicht eben sein wird. Ein Beispiel dafür wird in Fig. 1b ge­ zeigt, in der, obwohl das Luftfahrzeug als geradeaus und mit gleichbleibender Höhe fliegend gezeigt ist, der Boden als uneben zu erkennen ist. An dem gezeigten Punkt, an dem das Objekt entdeckt ist, wird gemessen, daß sich das Luftfahr­ zeug in einer Höhe h über Grund befindet. Verwendet man die­ selben mathematischen Gleichungen wie Fig. 1a, würde in diesem Fall nahegelegt werden, daß sich das Objekt in einer Entfernung R′ befindet, die offensichtlich falsch ist. In diesem Beispiel sollte deshalb die barometrische Höhe, die als H gezeigt ist, verwendet werden, um einen korrekten Wert für die Entfernung R zu bekommen. Falls jedoch das Objekt auf einem ungleichförmigen und oberhalb der barometrischen Basishöhe liegenden Stück des Bodens liegt, wird ein bloßes Ablesen der barometrischen Höhe ebenfalls zu Ungenauigkeiten in der Entfernung führen.
Um diese Probleme zu überwinden, können diese beiden Höhen, die durch das Luftfahrzeug gemessen werden können, z. B. die barometrische Höhe H und der Bodenabstand h, kontinuierlich gemessen und verglichen werden. Es ist der Vergleich der beiden Werte auf einer kontinuierlichen Grundlage, der all­ gemein die Bodenunebenheiten von den Wellenbewegungen des Luftfahrzeugs trennen kann und der infolgedessen verarbeitet werden kann, um eine Abschätzung der Bodenhöhe des Objektes zu liefern. Aus derartigen Messungen kann eine Schätzung seiner wahren Position gemacht werden. Die folgende Tabelle 1 liefert einige typische Vergleiche von h und H auf einer kontinuierlichen Basis und die geeigneten Analysen in jedem Fall:
Fig. 1b übertreibt natürlich stark das Problem, obwohl das Problem ausgeprägter wird, seit moderne Luftfahrzeuge in der Lage sind, mit niedrigerer Übergrund-Höhe zu fliegen als früher. Das Verfahren der vorliegenden Erfindung schafft daher einen verbesserten Prozeß zum Abschätzen des korrekten Abstandes irgendeines Objektes innerhalb der Abbildung, und es kann an jeder Stelle des Fluges des Luftfahrzeugs eine Entfernungskarte erstellt werden, auf der einzelne Objekte plaziert werden können. Die Entfernungskarte muß dabei nicht in jedem Sinne ein reales Bild ergeben und könnte bloß durch elektronisch in einem Speicher abgelegte Daten repräsentiert werden. Aus der Kenntnis der relativen Größen der Objekte auf dieser Entfernungskarte können offensichtlich irrelevan­ te Daten eliminiert werden und somit besitzt der Anwender eine größere Chance, jene Objekte zu entdecken, an denen er interessiert ist.
Ausführungen der vorliegenden Erfindung werden nun beispiels­ weise unter Bezugnahme auf die begleitenden Zeichnungen beschrieben; es zeigen:
Fig. 1 schematisch, wie Geländeunebenheiten den wahrgenomme­ nen Abstand eines Zieles beeinflussen können,
Fig. 2 schematisch eine Vorrichtung, die zur Verwendung in der vorliegenden Erfindung angepaßt ist, und
Fig. 3 schematisch eine typische Abstandskarte.
Unter Bezugnahme auf Fig. 2 benutzt ein Abbildungssystem nach einer Ausführung der vorliegenden Erfindung vier Aufneh­ merelemente, von denen jedes einen unterschiedlichen Parame­ ter des Fluges des Luftfahrzeuges mißt. Die interessierende Gegend wird von einem elektrooptischen (EO) Sensor 1 beobach­ tet, der an einem Luftfahrzeug befestigt ist und ein Sicht­ feld beobachtet, wie es in Fig. 1 gezeigt ist, um eine Abbil­ dung zu schaffen, die alle möglichen Objekte innerhalb des Sichtfeldes des Abbilders in diffuser Form umfaßt. Die Bil­ dinformation vom EO-Sensor 1 wird mittels normaler und wohl­ bekannter Algorithmen verarbeitet, um die x, y-Koordinaten 2 aller möglichen Objekte zu liefern. Darin werden natürlich auch solche Dinge wie Kühe, Bäume usw. enthalten sein, die von Interesse sein können oder nicht. Ein System 3 zur iner­ ten Navigation (IN) irgendeines Typs, der allgemein in einem Luftfahrzeug zu finden ist, wird verwendet, um die Fluglage­ daten 4 zu erhalten, so daß zu jeder bestimmten Zeit die Roll-, Nick- und Gier-Werte des Flugzeuges bekannt sind. IN-Systeme sind wohlbekannt und können auf Kreiselprinzipien beruhen.
Die Höheninformation wird von zwei Sensoren erhalten, einem Radarhöhenmesser 5 und einem barometrischen Höhenmesser 6. Zu jedem Zeitpunkt kann der Radarhöhenmesser 5 verwendet werden, um den Bodenabstand des Luftfahrzeugs mittels Radar­ impulse zu bestimmen, und daraus können die Werte h von Fig. 1 abgeleitet werden. Der barometrische Höhenmesser 6 mißt Ab­ weichungen im Luftdruck, die hauptsächlich durch das Verän­ dern der Höhe eines Flugzeuges über einem Bezugspunkt be­ wirkt werden, an dem der Höhenmesser 6 das letztemal einge­ stellt worden ist, im allgemeinen der Höhe der Startbahn, von der das Flugzeug das letztemal gestartet ist. Diese Ein­ richtungen sind im allgemeinen innerhalb etwa 50 m genau und geben einen absoluten Höhenwert an, der unabhängig von Gelän­ deveränderungen ist. Die variierenden Werte von h und H werden in entsprechenden Einrichtungen 7 und 8 gefiltert und geglättet, die wiederum von bekannter Ausbildung sind. Es hat sich als nützlich erwiesen, die Ausgangssignale dieser Sensoren so zu glätten, daß lokale Anomalien, wie Hecken und Gebäude während des weiteren Verarbeitens der Daten vernach­ lässigt werden können.
Drei "Zusammenschlußpunkte" sind in Fig. 2 auf einer Zeitach­ se gezeigt. An jedem dieser Punkte werden unterschiedliche Datenanteile zusammengeführt, um zu bewirken, daß das endgül­ tige Ausgangssignal des Systems die von allen vier Aufnehmer­ einrichtungen erhaltenen Daten berücksichtigt.
Die gefilterten und geglätteten Ausgangssignale der Radar­ und barometrischen Höhenmesser, h bzw. H, werden in einer Einrichtung 9 fortlaufend verglichen. Für diesen Zweck kann einfache, dem Fachmann wohlbekannte Schalttechnik verwendet werden und ein kontinuierlicher Vergleich der beiden Werte kann einen Anhaltspunkt für die Veränderungen sowohl des Bo­ denabstandes als auch der Luftfahrzeug-Höhe und somit eine nähere Approximation an die Entfernung des ausgewählten ange­ zielten Objektes liefern.
Eine Analyse, die der aus Tabelle 1 gleicht, kann verwendet werden, um einen Hinweis auf Geländeveränderungen zu lie­ fern, obwohl die kontinuierliche Überwachung der Werte von H, h und H-h für eine quantitative Bewertung des Prozesses sorgt und einen gewissen Intelligenzgrad im System ermög­ licht, der zu der im in Fig. 2 mit 10 bezeichneten Kasten ge­ zeigten Position führt, wobei zu jedem Zeitpunkt ein Schätz­ wert der wahren Höhe des Luftfahrzeugs und der Geländeuneben­ heiten gebildet wird.
Die so erhaltenen Werte sind abhängig von der Fluglage des Luftfahrzeugs (Winkel zur Flugrichtung) und werden infolge­ dessen in einem geometrischen Prozessor 11 mit Daten aus dem IN-System 3 korrigiert. Aus diesem Prozeß wird eine Entfer­ nungskarte 12 hergeleitet. Der geometrische Prozessor 11 führt im wesentlichen Hardware-Matrixmultiplikationen einer als perfekt angenommenen Entfernungskarte mit einer anderen Matrix, die aus der Höhe, der Fluglage und Höhewerten aus den Einheiten 4 und 10 hergeleitet wird, welche den Gesichts­ punkt des Sensors bestimmen. Dieses schafft eine dritte Ab­ bildungsgrößen-Matrix 12, die eine Entfernungskarte dar­ stellt, welche für die im Moment geschaffene Abbildung rele­ vant ist.
Vom EO-Sensor gleichzeitig erhaltene Bildinformation wird wie oben beschrieben verarbeitet, um die x- und y-Koordina­ ten aller innerhalb des Bildes gelegenen Objekte zu erhal­ ten. Die Entfernungskarte 12 wird dann bei 13 mit den x- und y-Daten überlagert, um jedem Objekt oder potentiellen Ziel nun zusätzlich zu den x- und y-Koordinaten die Entfernung R zuzuordnen. Eine typische endgültige Entfernungskarte, die auf diesem Weg geschaffen wird, wird in Fig. 3 gezeigt. Diese überlagerte Entfernungskarte kann einem Beobachter an­ gezeigt werden, wird aber im allgemeinen in einem Erinnerungsspeicher festgehalten, und nur die spezifischen Objekteinzelheiten werden übertragen. Die Entfernungskarte, die von der Einheit 12 geschaffen wird, ist aufgrund der oben beschriebenen Gründe nur eine Annäherung und somit werden Entfernungsbereiche gebildet, wie sie in Fig. 3 ge­ zeigt sind anstatt einer Serie einzelner, individueller Ent­ fernungen. Jedoch ist dieses Maß an Genauigkeit im allgemein­ en ausreichend, um in der Lage zu sein, zwischen unterschied­ lichen Zielobjekt-Typen zu unterscheiden. Aus der relativen Lage und Größe von Objekten innerhalb der Abbildung können weitere Apparate, die nicht Teil dieser Anmeldung sind, aber als Block 14 gezeigt sind, verwendet werden, um automatisch zwischen unterschiedlichen Objekten zu unterscheiden und um jene zu eliminieren, die den Bediener nicht interessieren, in Abhängigkeit davon, welchen Gebrauch dieser von den Daten machen will.
Die drei Zusammenführungs-Blocks des Systems, das sind die Blocks 9, 11 und 13, beinhalten rein nach vorne gerichtete Operationen und können leicht entworfen werden. Der geometri­ sche Prozessor 11 arbeitet mit geradeaus gerichteten geome­ trischen Prinzipien, aber besitzt einen intensiven Rechner­ aufwand, da jedes individuelle Speicherelement adressiert werden muß. Hierdurch ist seine Funktion ähnlich der vieler Computergraphik-Prozessoren, die mittlerweile verfügbar und dem Fachmann bekannt sind.
Es ist vorauszusehen, daß eventuell eine Geländedaten-Basis ein Standardteil der Avionik der meisten, wenn nicht gar aller Luftfahrzeuge werden wird. Diese wird dann eine digita­ lisierte Karte der Gegend enthalten, über welche das Luft­ fahrzeug fliegen wird und die auf der Karte gezeigten Einzel­ heiten werden Kontur- und Unebenheits-Daten umfassen. Somit kann das Ausgangssignal von einer digitalen Geländedaten- Basis in einem bestimmten Augenblick benutzt werden, um ge­ nauer auf die Stellung von Objekten zu zielen. Unter Bezug­ nahme auf Fig. 2 kann das digitale Ausgangssignal aus einer Geländedaten-Basis anstatt des Ausgangssignals vom barometri­ schen Höhenmesser 6 benutzt werden. Die Informationen einer Geländedaten-Basis könnten alternativ dazu zusätzlich zum ba­ rometrischen Höhenmesser 6 benutzt werden, um einen höheren Verschmelzungsgrad zu schaffen.
Ein alternatives Verfahren zum Messen von Unebenheiten und Konturen im Gelände geschieht durch Verwendung von Daten­ fluß-Verfahren, wobei die Raten, mit denen Linien der Abbil­ dung divergieren, wenn sich das Luftfahrzeug daraufzu bewegt und darüber ist, verwendet werden können, um Steigungswerte zu bestimmen. Datenflußtechniken (data streaming techniques) umfassen heute extrem komplizierte Verarbeitungsanordnungen und würden die Komplexität und die Kosten eines Datenzusam­ menfassungs-Systems nach der Erfindung stark steigen lassen. Wenn jedoch die Komplexität von Datenfluß-Systemen auf ein vernünftiges Niveau reduziert wird, könnte eine Daten­ fluß-Verarbeitungseinheit als zusätzlicher Zusammenfassungs­ schritt in der vorliegenden Vorrichtung auch verwendet werden.

Claims (8)

1. Abbildungssystem mit einem Abbildungssensor zum Betrach­ ten eines Bodenbereiches und zum Erhalten einer Abbildung davon, einem oder mehreren weiteren Sensoren zum Messen ausgewählter Parameter bezüglich der relativen Position des Abbildungssensors in bezug auf den Bodenbereich und gekennzeichnet durch Einrichtungen zur Verwendung des Aus­ gangssignals des oder jedes weiteren Sensors, um Abschnit­ ten der Abbildung, zumindest teilweise, in Abhängigkeit von ihrer Lage innerhalb des Sichtfeldes der Abbildungs­ einrichtung, Entfernungsbereiche zuzuschreiben.
2. Abbildungssystem nach Anspruch 1, eingerichtet, um den Bo­ denbereich von einem Luftfahrzeug aus zu betrachten.
3. Abbildungssystem nach Anspruch 2, worin der eine oder ein weiterer Sensor ein Sensor zur Messung des Bodenabstandes des Luftfahrzeugs ist.
4. Abbildungssystem nach Anspruch 2 oder 3, worin der eine oder ein weiterer Sensor ein Sensor zur Messung der Flug­ lage des Luftfahrzeugs ist.
5. Abbildungssystem nach einem der Ansprüche 2 bis 4, worin der eine oder ein weiterer Sensor ein barometrischer Hö­ henmesser ist.
6. Abbildungssystem nach einem der Ansprüche 2 bis 5, da­ durch gekennzeichnet, daß eine digitale Geländedatenbasis vorgesehen ist und daß ein Ausgangssignal von der Datenba­ sis verwendbar ist, um darüber hinaus Abschnitten der Ab­ bildung Entfernungsbereiche zuzuordnen.
7. Abbildungsverfahren, gekennzeichnet durch die folgenden Schritte: Erhalten einer Abbildung eines Bodenbereiches mit einem luftgestützten Abbildungssensor, der ein Sicht­ feld aufweist; Messen der Höhe H und des Bodenabstandes h des Sensors während eines Zeitabschnitts und Vergleichen der Werte von H und h, um einen Hinweis auf Gelände- und Flugweg-Unebenheiten zu erhalten und Aufbringen der erhal­ tenen Unebenheitsdaten auf die vom Abbildungssensor erhal­ tene Abbildung, um Abschnitten der Abbildung, zumindest teilweise, in Abhängigkeit von ihrer Lage innerhalb des Sichtfeldes der Abbildung, Entfernungsbereiche zuzuschrei­ ben.
8. Abbildungsverfahren nach Anspruch 7, mit dem weiteren Schritt, die Fluglage des Luftfahrzeugs zu messen und die Fluglagedaten auf die vom Abbildungssensor erhaltenen Ab­ bildungsdaten aufzubringen.
DE19883805252 1987-02-20 1988-02-19 Abbildungssystem Withdrawn DE3805252A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB8704012A GB2254214B (en) 1987-02-20 1987-02-20 Imaging systems

Publications (1)

Publication Number Publication Date
DE3805252A1 true DE3805252A1 (de) 1992-12-10

Family

ID=10612649

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19883805252 Withdrawn DE3805252A1 (de) 1987-02-20 1988-02-19 Abbildungssystem

Country Status (4)

Country Link
DE (1) DE3805252A1 (de)
FR (1) FR2678127A1 (de)
GB (1) GB2254214B (de)
NL (1) NL8800105A (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL154701A0 (en) * 2003-03-02 2004-05-12 Yaniv Malchi Passive target acquisition system and a true north locating system
US7451059B2 (en) 2003-03-02 2008-11-11 Tomer Malchi True azimuth and north finding method and system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2115633B (en) * 1982-02-22 1985-07-10 Secr Defence Low level flying aids

Also Published As

Publication number Publication date
GB2254214A (en) 1992-09-30
GB2254214B (en) 1993-03-10
NL8800105A (nl) 1992-10-01
FR2678127A1 (fr) 1992-12-24

Similar Documents

Publication Publication Date Title
DE102016104463B4 (de) Mehrdimensionale Verschmelzung von Bildern in Echtzeit
DE69012278T2 (de) Navigationssysteme.
DE69021354T2 (de) System zur Detektion eines Hindernisses.
EP2044573B1 (de) Überwachungskamera, verfahren zur kalibrierung der überwachungskamera sowie verwendung der überwachungskamera
DE69319050T2 (de) Flugzeugvermessungsverfahren und -gerät
DE60018980T2 (de) Determinationsverfahren für standobjekte und rechnerprogramm zur durchführung des verfahrens
DE69925057T2 (de) Vorrichung zur Messung der Höhe eines Flugkörpers
EP1673589B1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
EP0033870B1 (de) Verfahren zur Messung der Schrägsichtweite
DE19962997A1 (de) Verfahren zur Kalibrierung eines Sensorsystems
DE102007044605B4 (de) Vermessungsgerät
DE102014014446A1 (de) Redundantes Bestimmen von Positionsdaten für ein automatisches Landesystem
EP1659417A1 (de) Verfahren zur Bestimmung der Ausrichtung eines Ausrichtungsindikators
WO2010057903A1 (de) Verfahren zur georeferenzierung optischer fernerkundungsbilder
DE102012111345B4 (de) Mobiles Handgerät zur Ausrichtung eines Sensors
DE102007054950B4 (de) Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
DE102015008879A1 (de) Verfahren zur Selbstlokalisation eines Fahrzeugs
DE102021114078A1 (de) Detektieren dreidimensionaler Strukturmodelle zur Laufzeit in Fahrzeugen
DE3802541C2 (de)
DE3102880C2 (de) Verfahren und Einrichtung zur Kalibrierung von Abtastern
EP0634628B1 (de) Verfahren zur Erdbeobachtung
WO2020160874A1 (de) Kalibriereinrichtung für eine überwachungsvorrichtung, überwachungsvorrichtung zur man-overboard-überwachung sowie verfahren zur kalibrierung
DE3805252A1 (de) Abbildungssystem
WO2011157723A1 (de) System und verfahren zur kollisionsvermeidung
DE3000654A1 (de) System zur darstellung der bewegung eines fahrzeugs relativ zu einer oberflaeche

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee