DE3432892A1 - Elektrooptisches zielgeraet - Google Patents

Elektrooptisches zielgeraet

Info

Publication number
DE3432892A1
DE3432892A1 DE19843432892 DE3432892A DE3432892A1 DE 3432892 A1 DE3432892 A1 DE 3432892A1 DE 19843432892 DE19843432892 DE 19843432892 DE 3432892 A DE3432892 A DE 3432892A DE 3432892 A1 DE3432892 A1 DE 3432892A1
Authority
DE
Germany
Prior art keywords
electro
image
acquisition device
target acquisition
optical target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19843432892
Other languages
English (en)
Other versions
DE3432892C2 (de
Inventor
Nikolaus Dipl.-Ing. 2806 Oyten Filipczyk
Christa 2804 Lilienthal Glienke
Willi Dipl.-Phys. 2803 Weyhe Hornfeld
Jürgen Dipl.-Ing. 2800 Bremen Hug
Rolf Dipl.-Ing. 2870 Delmenhorst Rüther
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
STN Systemtechnik Nord GmbH
Original Assignee
Messerschmitt Bolkow Blohm AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Messerschmitt Bolkow Blohm AG filed Critical Messerschmitt Bolkow Blohm AG
Priority to DE19843432892 priority Critical patent/DE3432892A1/de
Priority to GB08522130A priority patent/GB2165714B/en
Priority to FR858513348A priority patent/FR2570195B1/fr
Publication of DE3432892A1 publication Critical patent/DE3432892A1/de
Application granted granted Critical
Publication of DE3432892C2 publication Critical patent/DE3432892C2/de
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

84-03 M
Elektrooptisches Zielgerät
Die Erfindung bezieht sich auf ein elektrooptisches Zielgerät zum automatisierten Suchen, Erfassen und Vermessen von Zielen mit einem auf einer schwenkbaren Stabilisierungsplattform angeordneten Bildsensor und einer davon angesteuerten Bildauswerte- und Bilddarstellungseinrichtung, in welcher Korrelatoren die Sensorbilddaten mit gespeicherten, statistischen Bilddaten verarbeiten.
Bei der Überwachung von Einsatzräumen und zur Erfassung von Zielobjekten ist es bekannt, die betreffenden Räume zum Beispiel mit Luftfahrzeugen zu überfliegen und mit Bildsensoren abzutasten. Die bei einem solchen Einsatz gewinnbaren Bilddaten können dann zum Beispiel zu einem Bodenleitstand übertragen und dort nach entsprechender Aufbereitung auf Monitoren wiedergegeben werden. Es ist durch Beobachtung der Monitore mit einer Kontrollperson möglich, die Bilddaten der erfaßten Einsatzräume auszuwerten und Objektbestimmungen, wie zum Beispiel in der DE-OS 25 19 241 beschrieben, vorzunehmen.
Die zuvor beschriebene Maßnahme zur Zielerfassung und Objektbestimmung ist jedoch unbefriedigend, und zwar, weil der Einsatz einer Kontrollperson im Leitstand als Unsicherheitsfaktor gilt. Außerdem ist ein solches Überwachungssystem zur automatischen Überwachung und Zielerfassung in großen Entfernungen, zum Beispiel jenseits der Augenreichweite und in großen Winkelbereichen, nicht geeignet.
- 6 35
Der Erfindung liegt daher die Aufgabe zugrunde, ein elektrooptisches Zielgerät der eingangs genannten Art zu schaffen, das eine automatisierte Zielerfassung und Objektbestimmung an Bord von Trägerfahrzeugen ermöglicht. Außerdem ist es Aufgabe der Erfindung, automatisierte Zielerfassungen und Objektbestimmungen in großen Entfernungen und großen Winkelbereichen zu ermöglichen. Diese Aufgabe ist durch die Kennzeichenmerkmale des Anspruchs 1 gelöst.
Weiterbildungen und vorteilhafte Ausgestaltungen der Erfindung sind den Unteransprüchen zu entnehmen.
Das erfindungsgemäße elektrooptisch© Zielgerät kann mit einem passiven Bildsensor, zum Beispiel einem Infrarot-Bildsensor oder einem Mikrowellenradiometer betrieben werden. Es ist aber ebenso möglich, hierfür einen aktiven Sensor, zum Beispiel einen Radarsensor einzusetzen. Die Stabilisierungsplattform bietet hierbei die Möglichkeit, innerhalb des Überwachungsraumes einen großen Winkelbereich durch Schwenken der Plattform abzutasten. Für die Schwenkbewegungen können, je nach Anforderung, dreiecks-, sinus-, sägezahn- oder spiralförmige Bewegungen eingesetzt werden, wobei die Geschwindigkeit der Schwenkbewegung als Funktion der Blickrichtung und der Fluggeschwindigkeit des Trägerfahrzeugs, zum Beispiel eines Kampfflugzeugs, zweckmäßigerweise so zu wählen sind, daß hinreichende Bildüberlappungen innerhalb einer Schwenkperiode entstehen, welche hohe Wahrscheinlichkeiten für eine Objekterfassung und -verteilung gewährleisten. Außerdem ist es beim Einsatz eines Infrarot-Bildsensors zweckmäßig, diesen Sensor von der üblichen CCIR-Norm entweder auf kontinuierliche oder Halbbild-Abtastung umzustellen. Die mit einem solchen Sensor erfaßten Bilder bzw. Bildausschnitte des überwachten Einsatzraumes werden dann auf die im weiteren Verlauf näher beschriebene Weise zur Zielerfassung und Objektbestimmung ausgewertet .
Die Erfindung wird anhand der beiliegenden Zeichnung näher erläutert. Es zeigen:
- 7 -
Fig. 1 ein Blockschaltbild des gesamten elektrooptischen Zielgerätes,
Fig. 2 ein Blockschaltbild der Schaltstufen für die automatische Zielerfassung,
Fig. 3a die Referenzstruktur einer abstrakten Objektschablone und
Fig. 3b die Aufteilung einer Referenzschablone in Suchmuster.
Das in Fig. 1 abgebildete elektrooptisch Zielgerät besteht aus einer Infrarotbildkamera 10, die auf einer schwenkbaren Stabilisierungsplattform 11 angeordnet ist. Auf dieser Plattform 11 sitzt weiterhin ein Laserentfernungsmeßgerät 12, das - ebenso wie die Infrarotkamera 10 - mit einem Datenbus 13 in gegenseitiger Funktionsverbindung steht. Hierdurch kann die Entfernung erfaßter Objekte ermittelt und das Ge sichtsfeld der Kamera eingestellt werden. Die Ausgangsdaten der Infrarotkamera 10 werden zunächst auf einen Analog-Digital-Wandler 14 gegeben, welcher digitale Bilddaten an die Schaltstufen 15 zur automatischen Zielerfassung und eine Schaltstufe 16 zur Bildverbesserung ausgibt. Der Analog-Digital-Wandler 14 und die Schaltstufe 16 zur Bildverbesserung werden ebenfalls durch Daten vom Datenbus 13 gesteuert. Hierzu steht der Datenbus 13 mit einem Zentralrechner 17 und einem Speieher 18 in entsprechender gegenseitiger Funktionsverbindung. Außerdem gibt ein Taktgeber 19 seine Taktsignale auf den Datenbus 13, und die Daten des Trägerfahrzeugs, zum Beispiel eines Kampfflugzeugs, wie Fluggeschwindigkeit, Flughöhe etc. sind dem Datenbus von einem symbolisch angedeuteten Block eingegeben.
Von der Schaltstufe 16 zur Bildverbesserung gelangen die digitalen Bilddaten auf einen vom Datenbus 13 beeinflußten Digital-Analog-Wandler 21, der die zugrückgewandelten Bilddaten über einen Bildmischer 22 auf ein Touch-Input-Bilddarstellungsgerät 23 weiterleitet. Dieses Bilddarstellungsgerät 23 steht darüber hinaus mit einem mit dem Datenbus 13 in entsprechender Funktionsverbindung stehenden Gesichtsfeldumschalter 24 in Verbindung, so daß mit Hilfe einfacher Touch-Inputs
- 8 35
bestimmte Objekte vergrößert dargestellt -werden können. Mit einem dem
Bildmischer 22 zugeordneten und durch Daten des Datenbusses 13 steuerbaren Symbolgenerators 25 ist es möglich, bestimmte Symbole in die Bilddaten einzumischen und auf dem Bilddarstellungsgerät 23 einzublenden. Diese Bildsymbole können darüber hinaus auf einem Spotprojektor 26 wiedergegeben werden, wodurch die Richtung der Objektlage innerhalb der Pilotenkanzel markiert wird.
Ein zweites Bilddarstellungsgerät 27, das über einen mit dem Datenbus 13 in gegenseitiger Funktionsverbindung stehenden Computer-Symbolgenerator 28, zum Beispiel Fadenkreuzgenerierung, angesteuert wird, bietet hierbei die Möglichkeit, die Flugzeuglängsachse auf das ausgewählte Objekt auszurichten.
Fig. 2 zeigt die Einzelheiten der Schaltstufen 15 zur automatischen Zielerfassung innerhalb des gesamten elektrooptischen Zielgerätes. Diese in dem Blockschaltbild näher bezeichneten und untereinander verschalteten Schaltstufen haben die Aufgabe, praktisch in Echtzeit spezielle Objekte im aufgenommenen Bild der Infrarotkamera 10 automatisch zu suchen, deren Bildposition zu bestimmen und den Schwenkvorgang der Stabilisierungsplattform 11 nach erfolgreicher Objektsuche zu unterbrechen. Außerdem muß die Infrarotbildkamera 10 danach so ausgerichtet werden, daß eine visuelle Objektidentifizierung mit Hilfe einer Bildvergrößerung durch Gesichtsfeldumschaltung möglich wird. Grundlage für die automatische Zielerkennung ist eine Korrelation der aufgenommenen und dualisierten Bilddaten mit einer abstrahierten Objektschablone. Die Dualisierung eines jeden Bildes der Infrarotbildkamera 10 erfolgt in dem Komparator mit einer Amplitudenschwelle, welche als Funktion der zu erwartenden Zielklasse durch geeignete Verknüpfung bildstatistischer Parameter (Histogrammauswertung) für jedes Bild individuell ermittelt wird. Dabei wird zur Vermeidung zu großer Falschauslösungen, zum Beispiel bei ungünstiger Statistik des aufgenommenen Bildes, auf eine Auswertung verzichtet.
Zum Zwecke einer schnellen und einfachen Korrelation werden neben der Bilddualisierung (1 bit-Grauwertauflösung) zielrotationsinvariante Objektschablonen eingesetzt, welche bei schräger Ausrichtung der Infrarotbildkamera 10 vom oberen zum unteren Bildrand größenrichtig angepaßt werden. Durch Übernahme der Systemdaten des Trägerfahrzeuges und der Kamera, wie durch den Block 20 in Fig. 1 angedeutet, lassen sich mit Hilfe der Flughöhe, der Sensorauflösung und -blickrichtung sowie der zu bestinmenden Objektart die Referenzschablonen errechnen. Rotationsinvariante Objektschablonen zeichnen sich hierbei durch eine 100 !-ige Übereinstimmung innerhalb der kleinsten Zieldimension und einer gewissen Obereinstimmung, zum Beispiel 66 %, innerhalb der größten Zieldimension aus. Eine einwandfreie Objektbestimmung verlangt darüber hinaus, daß in einem äußeren Bereich die Übereinstimmung 0 % sein muß (Hintergrundseparation).
In Fig. 3a ist eine typische Struktur einer abstrakten Objektschablone für senkrechte und schräge Sensorausrichtung dargestellt, wobei die Dimensionen der einzelnen Schablonenteile in Abhängigkeit der Zielabmessungen sowie der Flug- und Sensorparameter zu wählen sind. Die Buchstaben L und H deuten hier auf "low" = tief bzw. "high" = hoch hin. Zur einfachen und schnellen Realisierung der Korrelation wird diese abstrakte Referenzschablone in drei Teilmuster zerlegt, welche unabhängig voneinander jeweils in einem der drei Korrelatoren korreliert werden. Fig. 3b zeigt die gewählte Aufteilung mit den drei sich ergebenden Korrelationsmustern und drei verschiedenen Maskenmustern, die, zusammen mit der Objekthöheninformation, als Speichertiefeninformation in den Objektreferenzspeicher eingegeben werden. Die Korrelationsmusterbreite verhält sich proportional zu der Objektbreite xmax und kann Werte zwischen 10 und 64 Bildpunkte einnehmen. Die nicht benutzten Bildpunkte sind mit der Maskeninformation abzudecken.
Zur Durchführung der Korrelation werden die Daten des dualisierten und zwischengespeicherten Infrarotbildes zeilenweise in die parallelen Schieberegister der Korrelatoren für die Muster 1 bis 3 eingegeben. 5 Oberschreiten die Korrelatoren für die Muster 2 und 3 einen vorgebbaren Korrelationsgrad, so werden von diesem Bildpunkt die Spaltenadressen abgespeichert. Es können 16 Adressen auf diese Weise in den Adreßspeicher eingegeben werden. Beim Durchlauf der nächsten Zeile werden beim Erreichen des vorgegebenen Korrelationsgrades wiederum Adressen gewonnen und mit den abgespeicherten Adressen verglichen. Wenn die Abweichung der beiden Adressen nicht größer als +/- 1 Bildpunkt (schräge Objektlage im Bild) ist, dann wird die verglichene Adresse zusammen mit einer Zahl η abgespeichert. Diese Zahl η drückt die Anzahl der verglichenen Zeilen aus. Bei größerer Abweichung wird die letzte Adresse als erste abgespeichert.
Das Ergebnis des Korrelators für das Muster 2 wird außerdem in einen Summenspeicher eines Summenvergleichers eingeschrieben. Dieser Summenspeicher wird ebenfalls überprüft, wobei dann, wenn zum Beispiel 66 % der gesamten Bildpunkte dieses Rahmens "high" sind, die Auswertung nicht weitergeführt wird. Die Auswertung des Summenspeichers wird danach in einer Toleranzzeile M vorgenommen, welche dann auftritt, wenn die Zahl η die zu erwartende und vorgegebene Zeilenzahl M erreicht hat. Außerdem wird in dieser Toleranzzeile M ein Adressenfenster errechnet und in der nachfolgenden Zeile mit dem Korrelator für das Muster 1 die "low"-Bedingung innerhalb dieses Adreßfensters überprüft. Tritt auch hier ein vorgegebener Korrelationsgrad auf, so wird das Objekt als erkannt definiert. Es werden dann von diesem Bildpunkt die Spalten- und Zeilenadressen zwischengespeichert und über eine Adressentransformationsschaltung, welche dann die Objektmittenadresse errechnet, in einen Symbolikspeicher eingegeben.
- 11 -
Die Darstellung nach Fig. 2, welche - wie bereits erwähnt - einen Überblick über den Aufbau und die Funktionsweise der Schaltstufen zur automatischen Zielerfassung zeigt, ist mit einigen ihrer Schaltstufen dreifach parallel ausgelegt und kann die Bildauswertung quasi in Echtzeitverarbeitung im Takt von 40 ms vornehmen. Für den Fall, daß die Bildauswertezeit 120 ms betragen kann, ist es möglich, auf eine Parallelverarbeitung zu verzichten.
Die auf die zuvor beschriebene Weise errechneten Zielkoordinaten eines erfaßten Zielobjektes dienen zum Ausrichten der Infrarotbildkamera 10 (nächstliegende Koordinate bezogen auf die augenblickliche Stellung der Stabilisierungsplattform) und zur Zielmarkierung. Sobald Objekte in einem Bild festgestellt worden sind, kann dieses Bild auf dem Bilddarstellungsgerät 23 einschließlich eingeblendeter Markierungen dargestellt werden, wobei über eine akustische Meldung die Aufmerksamkeit einer Kontrollperson erregt werden kann. Da die optische Sensorachse auf das nächstgelegene Objekt ausgerichtet ist, erfolgt die visuelle Zielerkennung durch einfache Gesichtsfeldumschaltung. Auch in diesem Falle ist eine Zielmarkierung mit Hilfe des Symbolgenerators 25 möglich.
Um die Anzeige der Zielposition in bezug auf die Position des Trägerfahrzeuges zu erhalten, kann entweder ein Winkelmaß in das dargestellte Bild eingeblendet werden, oder die Zielmarkierung wird über den Spotprojektor an entsprechender Stelle in der Pilotenkanzel abgebildet. Für die auf diese Weise erfaßten Zielobjekte stehen zur Weiterverarbeitung in einem Kampfflugzeug weitere Bordrechner zur Verfügung.
Das Laserentfernungsmeßgerät 12 dient hierbei zur exakten Berechnung der Referenzbildmaße bzw. der Objektpositionen.
Zeichnungen - 12 35

Claims (16)

Bremen, den 05.09.1984 84-03 M Sm/bw Messerschmitt-Bölkow-Blohm GmbH 15 PATENTANSPRÜCHE
1. Elektrooptisches Zielerfassungsgerät zum
automatisierten Suchen, Erfassen und Vermessen von Zielen, mit einem auf einer schwenkbaren Stabilisierungsplattform angeordneten Bildsensor und einer davon angesteuerten Bildauswerte- und Bilddarstellungseinrichtung, in welcher Korrelatoren die Sensorbilddaten mit gespeicherten statistischen Bilddaten verarbeiten, dadurch gekeimzeichnet, daß die Sensorbilddaten zur Erzeugung dualisierter Bilddaten über eine einstellbare Amplitudenschwelle geleitet und anschließend Korrelatoren zur Verarbeitung mit auswählbaren, aus den statistischen Bilddaten gebildeten Objektschablonen zugeleitet werden.
2. Elektrooptisches Zielerfassungsgerät nach
Anspruch 1, dadurch gekennzeichnet, daß die einstellbare Amplitudenschwelle in einem Komparator als Funktion zu erwartender Zielklassen durch Verknüpfung statistischer Bildparameter (Histogrammauswertung) für jedes Bild ermittelt wird.
3. Elektrooptisches Zielerfassungsgerät nach
Anspruch 1 oder 2, dadurch gekennzeichnet, daß für die Objektschablonen zielrotationsinvariante Schablonen eingesetzt werden, welche bei schräg nach vorn weisender Sensorausrichtung vom oberen zum unteren Bildrand größenmäßig angepaßt sind.
4. Elektrooptisches Zielerfassungsgerät nach
einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß das zum Beispiel in einem Kampfflugzeug eingesetzte Gerät Systemdaten, wie Flughöhe, Sensorauflösung und Sensorblickrichtung sowie die zu erfassende Objektart erhält und daraus Referenzschablonen für die Objektschablonen errechnet.
5. Elektrooptisches Zielerfassungsgerät nach
einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Korrelation der dualisierten Bilddaten mit Daten zielrotationsinvarianter Objektschablonen erfolgt.
6. Elektrooptisches Zielerfassungsgerät nach
einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die abstrakten Objektschablonen in drei Teilmuster zerlegt werden, deren Daten jeweils in einem von drei parallelen Korrelatoren mit den dualisierten Bilddaten korreliert werden.
- 3 -
7. Elektrooptisches Zielerfassungsgerät nach
einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß für den Bildsensor ein passiver Bildsensor, zum Beispiel eine Infrarotbildkamera (10) oder ein Mikrowellenradiometer eingesetzt ist.
8. Elektrooptisches Zielerfassungsgerät nach
einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß für den Bildsensor ein aktiver Bildsensor, zum Beispiel ein Radarsensor, eingesetzt ist.
9. Elektrooptisches Zielerfassungsgerät nach
einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß das Schwenken der Stabilisierungsplattform (11) mit einer dreiecksförmigen Bewegung erfolgt.
10. Elektrooptisches Zielerfassungsgerät nach
einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß das Schwenken der Stabilisierungsplattform (11) mit einer sinusförmigen Bewegung erfolgt.
11. Elektrooptisches Zielerfassungsgerät nach
einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß das Schwenken der Stabilisierungsplattform (11) mit einer sägezahnförmigen Bewegung erfolgt.
3Α32Θ92
12. Elektrooptisches Zielerfassungsgerät nach
einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß das Schwenken der Stabilisierungsplattform (11) spiralförmig erfolgt.
13. Elektrooptisches Zielerfassungsgerät nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, daß der Stabilisierungsplattform (11) ein Laserentfernungsmeßgerät (12) zugeordnet ist.
14. Elektrooptisches Zielerfassungsgerät nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, daß der Schwenkvorgang der Stabilisierungsplattform (11) nach erfolgreicher Objektsuehe (10) auf das erfaßte Objekt mit Hilfe der Stabilisierungsplattform (11) ausgerichtet wird.
15. Elektrooptisches Zielerfassungsgerät nach einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, daß die Daten
der aufgenommenen Originalbilder einer Bildverbesserungseinheit (16) zugeführt werden, welche durch Histogrammauswertung eine bildinhaltsadaptive Übertragungskennlinie (Polygonzug) erzeugt und damit eine optimale Bilddarstellungsqualität sicherstellt.
25
16. Elektrooptisches Zielerfassungsgerät nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, daß die relative Lage eines entdeckten Objekts durch Spotprojektion innerhalb der Pilotenkanzel sichtbar gemacht wird.
Beschreibung - 5 35
DE19843432892 1984-09-07 1984-09-07 Elektrooptisches zielgeraet Granted DE3432892A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE19843432892 DE3432892A1 (de) 1984-09-07 1984-09-07 Elektrooptisches zielgeraet
GB08522130A GB2165714B (en) 1984-09-07 1985-09-06 Electro-optical aiming device
FR858513348A FR2570195B1 (fr) 1984-09-07 1985-09-09 Appareil de recherche de cibles optoelectronique permettant une saisie et determination automatique de l'objectif a bord de vehicules porteurs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19843432892 DE3432892A1 (de) 1984-09-07 1984-09-07 Elektrooptisches zielgeraet

Publications (2)

Publication Number Publication Date
DE3432892A1 true DE3432892A1 (de) 1986-03-20
DE3432892C2 DE3432892C2 (de) 1992-12-17

Family

ID=6244860

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19843432892 Granted DE3432892A1 (de) 1984-09-07 1984-09-07 Elektrooptisches zielgeraet

Country Status (3)

Country Link
DE (1) DE3432892A1 (de)
FR (1) FR2570195B1 (de)
GB (1) GB2165714B (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3446975A1 (de) * 1984-12-21 1986-07-03 Industrieanlagen-Betriebsgesellschaft Mbh, 8012 Ottobrunn Verfahren und einrichtung zur gefechtsfeldbeobachtung und kampffuehrung
DE4220316A1 (de) * 1991-06-24 1993-01-14 Matsushita Electric Ind Co Ltd Videokamerasystem unter verwendung einer thermischen bilderfassungseinrichtung
EP0678755A2 (de) * 1994-04-21 1995-10-25 Bodenseewerk Gerätetechnik GmbH Einrichtung zur passiven Freund/Feind-Unterscheidung

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2627290B1 (fr) * 1988-02-12 1991-01-25 Matra Systeme de reperage et de mesure par voie optique pour vehicule spatial
GB8826550D0 (en) * 1988-11-14 1989-05-17 Smiths Industries Plc Image processing apparatus and methods
GB8925196D0 (en) * 1989-11-08 1990-05-30 Smiths Industries Plc Navigation systems
DE4320485B4 (de) * 1993-06-21 2007-04-19 Eads Deutschland Gmbh Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera
AUPR080400A0 (en) * 2000-10-17 2001-01-11 Electro Optic Systems Pty Limited Autonomous weapon system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2106035B2 (de) * 1970-02-11 1974-02-21 Saab-Scania Ab, Linkoeping (Schweden) Vorrichtung zur Überprüfung der Formübereinstimmung eines elektromagnetisch erzeugten Objektbildes mit einem vorgegebenen Schema
GB2067744A (en) * 1980-01-09 1981-07-30 Goodyear Aerospace Corp Digital Video Correlator
DE2842684C2 (de) * 1978-09-30 1982-12-30 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Einrichtung zur Erkennung und Verfolgung eines Zieles

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2545660A1 (de) * 1975-10-11 1977-04-21 Basf Ag 1-chlorpropen-(2,3)-sulfonsaeure-(3)- verbindungen und verfahren zu ihrer herstellung
GB1590950A (en) * 1976-12-11 1981-06-10 Emi Ltd System for comparing representations of a scene
US4133004A (en) * 1977-11-02 1979-01-02 Hughes Aircraft Company Video correlation tracker
GB2094088B (en) * 1979-01-09 1983-05-18 Emi Ltd Correlation arrangements
FR2451040A1 (fr) * 1979-03-08 1980-10-03 Virnot Alain Procede et dispositif permettant de faire automatiquement le point a bord d'un vehicule pourvu d'un equipement radar
DE2938853A1 (de) * 1979-09-26 1981-04-09 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luftfahrzeuge
FR2481489A1 (fr) * 1980-04-25 1981-10-30 Thomson Csf Dispositif correlateur bidimensionnel
GB2116000B (en) * 1982-03-02 1985-05-01 Elliott Bros Guidance system
DE3214725A1 (de) * 1982-04-21 1983-10-27 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und anordnung zum zuordnen der grauwerte eines bildes zu anderen grauwerten
US4590569A (en) * 1983-10-14 1986-05-20 Navigation Sciences Inc. Navigation system including an integrated electronic chart display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2106035B2 (de) * 1970-02-11 1974-02-21 Saab-Scania Ab, Linkoeping (Schweden) Vorrichtung zur Überprüfung der Formübereinstimmung eines elektromagnetisch erzeugten Objektbildes mit einem vorgegebenen Schema
DE2842684C2 (de) * 1978-09-30 1982-12-30 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Einrichtung zur Erkennung und Verfolgung eines Zieles
GB2067744A (en) * 1980-01-09 1981-07-30 Goodyear Aerospace Corp Digital Video Correlator

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3446975A1 (de) * 1984-12-21 1986-07-03 Industrieanlagen-Betriebsgesellschaft Mbh, 8012 Ottobrunn Verfahren und einrichtung zur gefechtsfeldbeobachtung und kampffuehrung
DE4220316A1 (de) * 1991-06-24 1993-01-14 Matsushita Electric Ind Co Ltd Videokamerasystem unter verwendung einer thermischen bilderfassungseinrichtung
EP0678755A2 (de) * 1994-04-21 1995-10-25 Bodenseewerk Gerätetechnik GmbH Einrichtung zur passiven Freund/Feind-Unterscheidung
EP0678755A3 (de) * 1994-04-21 1998-08-12 Bodenseewerk Gerätetechnik GmbH Einrichtung zur passiven Freund/Feind-Unterscheidung
US6249589B1 (en) 1994-04-21 2001-06-19 Bodenseewerk Geratetechnik Gmbh Device for passive friend-or-foe discrimination

Also Published As

Publication number Publication date
FR2570195B1 (fr) 1990-02-02
DE3432892C2 (de) 1992-12-17
FR2570195A1 (fr) 1986-03-14
GB8522130D0 (en) 1985-10-09
GB2165714B (en) 1988-07-13
GB2165714A (en) 1986-04-16

Similar Documents

Publication Publication Date Title
DE60123534T2 (de) Gerät zum Verfolgen eines sich bewegenden Objekts
EP0691534B1 (de) Verfahren zur Ermittlung der Sichtweite, insbesondere für die Bewegung eines Kraftfahrzeuges
AT506928B1 (de) Verfahren zur videoanalyse
DE60037360T2 (de) Verfahren und Vorrichtung zur Geschwindigkeitsmessung von Fahrzeugen mit ein Bildverarbeitungssystem
DE4407528C2 (de) Bewegungsmelder und Verfahren zur Bewegungsmeldung
DE60224853T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Fahrzeugbildern
DE102005056647B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE3432892C2 (de)
DE10312249A1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
EP1189187B1 (de) Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System
DE3133866A1 (de) Verfahren zur sichtsimulation
EP2656105B1 (de) Verfahren zur erstellung eines bilddokumentes, in dem ein durch ein radargerät angemessenes fahrzeug identifiziert werden kann und mit diesem verfahren erstelltes bilddokument
DE102018008282A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugobjekten
EP0777864B1 (de) System und verfahren zur bildauswertung
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
EP1116962B1 (de) Verfahren zur autonomen Detektion von Hubschraubern
EP3980745A1 (de) System zur positionsbestimmung von beweglichen dummy-elementen
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
DE3119505A1 (de) Optischer sensor fuer die erfassung von dreidimensionalen objekten
EP0749619A1 (de) System und verfahren zur bildauswertung
EP1015313A1 (de) Dockingsystem für flughafenterminals
DE19713945A1 (de) Vorrichtung zur Ortung von beweglichen Objekten
DE4212066C2 (de) Verfahren und Vorrichtung zur Lagebestimmung einer optischen Linie
DE102022133932A1 (de) Vorrichtung zur Bestimmung von Relativlagen zweier gleichsinnig um eine Rotationsachse rotierender Objekte
WO2024056261A1 (de) Verfahren zum trainieren eines neuronalen netzes zur detektion eines objekts und verfahren zur detektion eines objekts mittels eines neuronalen netzes

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
D2 Grant after examination
8327 Change in the person/name/address of the patent owner

Owner name: STN SYSTEMTECHNIK NORD GMBH, 2800 BREMEN, DE

8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee