DE69031094T2 - Verfahren und Gerät zur Überwachung und Zielverfolgung - Google Patents

Verfahren und Gerät zur Überwachung und Zielverfolgung

Info

Publication number
DE69031094T2
DE69031094T2 DE69031094T DE69031094T DE69031094T2 DE 69031094 T2 DE69031094 T2 DE 69031094T2 DE 69031094 T DE69031094 T DE 69031094T DE 69031094 T DE69031094 T DE 69031094T DE 69031094 T2 DE69031094 T2 DE 69031094T2
Authority
DE
Germany
Prior art keywords
unit
algorithm
target
flir
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Revoked
Application number
DE69031094T
Other languages
English (en)
Other versions
DE69031094D1 (de
Inventor
Leon W Francis
Paul T Gray
Walter G Margerum
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Hughes Aircraft Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=23312736&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69031094(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Hughes Aircraft Co filed Critical Hughes Aircraft Co
Publication of DE69031094D1 publication Critical patent/DE69031094D1/de
Application granted granted Critical
Publication of DE69031094T2 publication Critical patent/DE69031094T2/de
Anticipated expiration legal-status Critical
Revoked legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Radiation Pyrometers (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

    1. Hintergrund der Erfindung
  • Die Erfindung bezieht sich auf das Gebiet des Infrarot-Abtastens, und insbesondere auf ein Verfahren und eine Vorrichtung zur Zielüberwachung bzw. um Zielaussuchen und Zielverfolgung in einem großen Bereich.
  • 2. Beschreibung des Standes der Technik
  • Elementare Infrarotdetektoren werden vielfach bei der Überwachung, dem Zielaufsuchen und in Abbildungssysteme zum Aufsuchen und Verfolgen verwendet, um das Vorhandensein von elektromagnetischer Strahlung mit Wellenlängen von 1-30 µm nachzuweisen. Um Infrarotstrahlung nachzuweisen, verwenden diese elementaren Detektoren vielfach temperatursensitive pyroelektrische und ferroelektrische Materialien, beispielsweise Triglycinsulfat und lanthandotiertes Bleizirconattitanat. Derartige Kristalle zeigen eine elektrische Spontanpolarisation als Reaktion auf eine einfallende Infrarotstrahlung, welche einen Potentialabfall zwischen Elektroden erzeugt, die an den Kristallen angebracht sind. Photoleitende Materialien, beispielsweise Blei-Sulfide und Quecksilber-Cadmium Telluride können ebenso verwendet werden, bei denen sich der Widerstand der Materialien als Funktion der einfallenden Strahlung verändert. Schließlich können auch photovoltaische Vorrichtungen, beispielsweise solche, die aus Quecksilber-Cadmium-Telluride, Indium- Antimonide oder ähnlichen Materialien hergestellt worden sind, verwendet werden, um eine Infrarotdetektion unter Verwendung einer Standard-P/N- Verbindung zu ermöglichen, wobei die intrinsische Band- zu-Band-Elekronen-Loch-Anregung einen Strom oder eine Spannung kreiert, welcher bzw. welche proportional zu dem einfallenden Strahlenfluß ist.
  • Muster bzw. Anordnungen derartiger elementarer Detektoren werden herangezogen, um thermische Abbildungssystem oder Sensoren zu bilden. Bei den thermischen Abbildungssystemen in Real-Time bzw. in Echtzeit, beispielsweise eines vorwärtsgerichteten Infrarot-("FLIR"; "forward looking infrared")-Abbildungssensors, werden oszillierende bzw. schwingende Prismenspiegel verwendet, um die von einer Quelle ausgesendete Strahlung entlang einer eindimensionalen Anordnung der elementaren Detektoren abzutasten. Falls die elementaren Detektoren in dieser Art und Weise verwendet werden, werden die zeitlichen bzw. die zeitabhängigen Ausgänge der Detektoren herangezogen, um eine zwei-dimensionale Darstellung des Bildes zu erzeugen. Bei zwei-dimensionalen Abbildungssystemen mit der Detektoranordnung, welche entweder eine starre oder abtastende Anordnung verwenden kann, produzieren die elementaren Detektoren freie Ladungsträger oder Ströme, welche dann durch eine geeignete Schaltung mit integriertem Auslesen, beispielsweise einer ladungsgekoppelten Vorrichtung ("CCD"; charge-coupled device) dargestellt werden. Die Ausgabe aus der CCD kann durch verschiedenartige Techniken verarbeitet werden, beispielsweise durch Zeitverzögerung und durch Integration und parallel-zu-seriellen Umwandlung der Abtastung mit der Auswahl, die von den Systemanforderungen der Referenzrate, der Signal-zu-Rausch- Verhältnisse etc. abhängt. Allerdings sollte verständlich sein, daß andere Arten der Auslesevorrichtungen ebenso verwendet werden können.
  • Unter Verwendung derartiger Abtastvorrichtungen können Ziele oder andere Objekte anhand der Infrarotstrahlung aufgesucht und nachgewiesen werden, welche das Ziel aussendet. Das Aufsuchen wird typischerweise entweder durch ein Bewegen des Sichtfeldes des Sensors über den projizierten Zielsuchbereich oder durch Vorhandensein eines Sensors durchgeführt, dessen Sichtfeld groß genug ist, um vollständig den Zielsuchbereich, beispielsweise wie im Carson U.S.-Patent Nr. 3970990 ausgeführt, abzudecken. In den früheren Fällen wird für den Sensor vielfach Bezug genommen auf einen kardanisch aufgehängten oder drehbaren Sensor oder einen FLIR. Nach dem Aufsuchen und dem Nachweis kann der kardanisch aufgehängte FLIR das Ziel in jede der verschiedenartigen Möglichkeiten aufspüren. Zwei der meist bekannten Verfahren für den Zweck der vorhandenen Diskussion sind (1) die Abbildungsverfolgung, bei dem die Abbildungs-FLIR-Sichtlinie des Sensors auf das Ziel positioniert wird und dort beibehalten wird bzw. verbleibt oder bei dem Vorhandensein jedweder Bewegungen nachgeführt wird, und (2) Verfolgungs-während-Abtastungs- ( "TWS"; track- while-scan-)-Modus, bei dem der FLIR in dem Suchbereich gemäß eines vorgegebenen Musters bewegt wird, wobei die Historie der Verfolgung in einem separaten Datenprozessor verbleibt, welcher aufnimmt, analysiert und alle Detektionen bzw. Dachweise miteinander korreliert. Der TWS-Modus ist zum Aufsuchen und der Verfolgung von Mehrfach-Zielen im großen Bereich bestens geeignet.
  • Aus der Veröffentlichung "Multiple-target tracking with radar applications" von Samuel S. Blackman sind mehrere Meßverfahren für eine Mehrfach-Verfolgung bekannt, welche den Mehrfach-Hypothesen-Verfolgungs-(MHT; multiple hypothesis tracking)-Ansatz verwenden, welcher von einem bereits gemessenen Datensatz gestartet wird. Der zentrale Gesichtspunkt des MHT-Ansatzes ist die Bildung eines Hypothesen-Baumes.
  • Aus der Veröffentlichung "An intelligent real-time multiple moving object tracker" von James S.J. Lee und C.Lin ist ein mehrfach-auflösender, mehrfach-modenmäßiger Nachweis für das zu interesierende Objekt bekannt, das ein Stadium durchläuft, welches kooperativ eine Korrelation, einen Bewegungsnachweis und einen Kontrastnachweis ausnutzt. Die Steuerung des Systems ist effectiv in fünf Haupteinheiten organisiert: einen mehrfach-auflösenden, mehrfach-modenmäßiger Objektdetektor, einer Nachweissicherheitseinheit, eine Muster gesteuerte Verfolgungsregelungseinheit für mehrere Zustände, einen Störfleckfilter und einen intelligenten Vorraussageeinheit, die in dem Bekannten TWS-Modus arbeitet.
  • In der Veröffentlichung " Infrared System Engineering" von Richard D. Hudson wird eine Gestaltung eines Infrarot-Such-Systems beschrieben, insdesondere werden die Probleme beschrieben, welche für einen Detektor hinsichtlich eines Einbaus in einem Flugkörper entstehen.
  • In der Veröffentlichung "Comparision of imaging infrared detection algoritms" von M.Burton und C. Benning wird die Leistungsfähigkeit von vier Kandidaten der Zielnachweisalgorithmen miteinander verglichen. Jedes dieser vier Konzepte wurden unter Verwendung eines gemeinsamen Datensatzes getestet.
  • In " Image tracking in multitarget environment" von A.S. Abutaleb werden Mustererkennungstechniken angewandt auf die Probleme einer Mehrfach-Ziel-Identifikation und dem Verfolgen von nachvorwärtsgerichteten Infrarot-Bildsequenzen einer Flugrakete. Die verwendeten Techniken wurden in einem Verfolgungs-während-Abtastungs-Modus durchgeführt.
  • In der Veröffentlichung "Target acquisition and extraction from cluttered bachgrounds" von S.A.Dudani et al., wird der Aspekt diskutiert, der die Erfassung und das Herauslösen eines Ziels in einem Zwei-Schritt- Verfahren berücksichtigt. Die Abbildung innerhalb eines Gatters wird über eine Schwelle diskriminiert unter Verwendung eines Intensitäts-Gradienten-Ansatzes, um das zu interessierende Objekt herauszulösen. Darin wird ein Erfassungsfilter und ein Algorithmus zur Auswahl der Intensitätsschwelle innerhalb des Zielgatters beschrieben.
  • In der Veröffentlichung "Segmentation of military vehicles for FLIR target detection" von Y. J. Lin, wird eine einfache anpassbare Schwellentechnik dargestellt. In dieser Veröffentlichung werden die Wiederverarbeitung und Segmentation abgehandelt, wobei zwei im wesentlichen anerkannte Unterprobleme, nämlich das Merkmalherauslösen und die Merkmalsklassifikation nicht beschrieben wurden.
  • In der Veröffentlichung "Multitarget-multisensor tracking" von Y. Bar-Shalom wird ein realistisches Einsatzszenario für die Problematik bei Zielen hinsichtlich der Luft-zu-Boden-Taktik beschrieben. Vielmehr weist diese Zielerfassung und das Verfolgungssystem einen abbildenden Infrarot-Sensor, eine automatische Zielerkennung und einen Mehrfachziel- Verfolgungs-Algorithmus auf, welche auf die Problematik bei Zielen hinsichtlich der Luft-zu-Boden-Taktik unter Verwendung herkömmlicher Techniken zugeschnitten ist. Zusätzlich werden die Grundlagen hinsichtlich der Zielerfassung und dem Verfolgungssystem dargestellt.
  • In der Veröffentlichung "Multiple target tracking with radar applications" von S.S Blackman wird ein Verfahren beschrieben, wie Datenbereiche, welche durch Abtastung eines Bildes mit einer Mehrfach-Ziel-Verfolgung erhalten wurde, unter Verwendung einer Mehrfach- Hypothesen-Verfolgung behandelt werden müssen, um Spuren der definierten Objekte zu erhalten. Somit wird der Gesamthintergrund für die Behandlung von vorab erhaltenen Datenbereiche beschrieben.
  • Aus dem Dokument US 4612441 ist ein Infrarot-Nachweis-System für sich bewegende Objekte bekannt, welches einen ersten und einen zweiten Infrarot-Detektor zum Abtasten entlang eines ersten und zweiten Weges auf dem Boden aufweist. Diese Technik ist anwendbar auf nachvorwärts gerichtete Infrarot-Detektoren, allerdings muß dann der gesamte Detektor in einem stationären Modus verbleiben.
  • In der Veröffentichung " Tracking and data association" wird der mathematische Hintergrund für die Messassoziierung und Mehrfach-Verfolgung beschrieben, d.h. die Techniken der Systemtheorie, welche die Zustandsraum-Darstellung eines linearen und nichtlinearen dynamischen Systems und statistische Techniken zur Annamhe und Hypothesenüberprüfung verwendet. Somit werden diese Techniken auf bekannte Datenbereiche angewandt.
  • Der Hauptnachteil der Verwendung von auf FLIR-basierenden Abbildungssystemen in dem TWS-Modus besteht darin, daß derartige Systeme in einem sehr langsamen Suchmodus betrieben werden müssen, um ein Verwackeln während der manuellen Observation zu verhindern, oder in einem langsamen Schritt-Verhaltemodus zur manuellen Beobachtung der Anzeige oder für die automatische Zieldetektions/Erkennungsverarbeitung betrieben werden Dementsprechend sind derartige Ansätze anwendende Abbildungs-Verfolgungen entweder allgemein nicht in der Lage, kontinuierlich ein sich schnell bewegendes Objekt oder mehrere Objekte zu verfolgen, oder zwingen den Beobachter dazu, Fragmente der sich ändernden Szene zu beobachten, als vielmehr kontinuierlich die Szene, wie sie sich verändert, zu beobachten. Während einige Anstrengungen darauf gerichtet waren, spezielle Sensorausgestaltungen mit einer speziellen Fokusfläche so zu entwickeln, daß damit eine große Sichtfläche schneller abgetastet werden kann, hatten derartige Systeme im Allgemeinen keinen kardanisch aufgehängten gleichmodularen FLIR, wie bereits in einer relativ großen Anzahl von Anwendungen verwendet wurde, inkorporiert.
  • ERFINDUNGSÜBERSICHT
  • Ein Verfahren gemäß Anspruch 20 und eine Vorrichtung gemäß Anspruch 1 zum Aufsuchen und Verfolgen wird beschrieben. Die Vorrichtung enthält eine zielorientierte FLIR-Einheit, welche in einem Abbildungsmodus arbeitet. Die Vorrichtung enthält ferner eine Einheit bzw. Gerät zum Nachweis und Verfolgen mehrerer Ziele.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • Verschiedenartige bzw. unterschiedliche Vorteile der vorliegenden Erfindung werden für einen Fachmann aufgrund des Lesens der folgenden Beschreibung und unter Berücksichtigung der folgenden Bezeichnungen verständlich, in denen:
  • Fig. 1 ein Blockdiagramm einer Vorrichtung zum Aufsuchen und Verfolgen entsprechend der Lehre der bevorzugten Ausführungsform der vorliegenden Erfindung ist;
  • Fig. 2 ein Blockdiagramm einer in Fig. 1 gezeigten Servo-Interface-Einheit ist;
  • Fig. 3 ein Blockdiagramm, das die funktionellen Zusammenhänge des Algorithmus darstellt, welcher von dem in Fig. 1 gezeigten Signalprozessor verwendet wird, ist;
  • Fig. 4 die funktionalen Zusammenhänge zwischen den Algorithmen darstellt, die von dem in Fig. 1 gezeigten Datenprozessor verwendet werden;
  • Fig. 5 den Zusammenhang zwischen den Spurenassoziations-, Spurenfilter-, und Spurenerfassungsalgorithmen gemäß Fig. 4 darstellt;
  • Fig. 6 ein Blockdiagramm des Algorithmus für die angepaßte Schwelle, der von dem in Fig. 1 gezeigten Signalprozessor ausgeführt wird, ist;
  • Fig. 7 den Betrieb des in Fig. 6 gezeigten Hochpaß-Zielfilters darstellt;
  • Fig. 8 den Betrieb des in Fig. 6 gezeigten Tiefpaß-Zielfilters darstellt;
  • Fig. 9 den Betrieb des in Fig. 6 gezeigten Hochpaß-Schutzfilters darstellt;
  • Fig. 10 den Betrieb des in Fig. 6 gezeigten Tiefpaß-Schutzfilters darstellt;
  • Fig. 11 den Betrieb des in Fig. 6 gezeigten Algorithmus für die angepaßte Schwelle darstellt;
  • Fig. 12 ein Blockdiagramm, das den Schwellen-Algorithmus des Störfleckenverzeichnis darstellt, welches der in Fig. 1 gezeigte Signalprozessor verwendet, ist;
  • Fig. 13 den Betrieb des Schwellen-Algorithmus des Störfleckenverzeichnis und ebenso den Algorithmus der angepaßten Schwelle darstellt, die von dem in Fig. 1 gezeigten Signalprozessor verwendet werden;
  • Fig. 14 die Reaktion des Zielfilters und des Schutzfilters, der in Fig. 6 gezeigt ist, als Reaktion auf die in Fig. 13(a) gezeigte Eingabe, darstellt;
  • Fig. 15 die Durchführung des Schwellen-Algorithmus des Störfleckenverzeichnis und des Algorithmus der angepaßten Schwelle darstellt, die von dem in Fig. 1 gezeigten Signalprozessor verwendet werden;
  • Fig. 16 die Reaktion des Schutzfilters und des Zielfilters, die in Fig. 6 gezeigt sind, als Reaktion auf die in Fig. 13(b) gezeigte Eingabe, darstellt;
  • Fig. 17 die Reaktion des Zielfilters und des Schutzfilters, die in Fig. 6 gezeigt sind, in Bezug auf die in Fig. 13(c) gezeigte Eingabe, darstellt;
  • Fig. 18 das normalisierte bzw. das relative Nachweisverhältnis der Vorrichtung zum Aufsuchen und Verfolgen unter speziellen Bedingungen darstellt, welche in Fig. 1 gezeigt ist;
  • Fig. 19 ein Beispiel des Algorithmus für die angepaßte Schwelle unter aktuellen Hintergrundsbedingungen wiedergibt, der in Fig. 6 gezeigt ist;
  • Fig. 20 den logischen Algorithmus für die Vidicongeisterbilder, welche von dem wie in Fig. 4 gezeigten Datenprozessor verwendet werden, darstellt;
  • Fig. 21 den logischen Algorithmus für das FLIR-Abtasten darstellt, der von dem wie in Fig. 4 gezeigten Datenprozessor verwendet wird;
  • Fig. 22 den Betrieb des Steuerungsalgorithmus der Schwelle darstellt, der von dem wie in Fig. 4 gezeigten Datenprozessor verwendet wird;
  • Fig. 23 den Erfassungsalgorithmus für die Spuren darstellt, der von dem wie in Fig. 4 gezeigten Datenprozessor verwendet wird; und
  • Fig. 24 den Spurenassoziationsalgorithmus darstellt, der von dem wie in Fig. 4 gezeigten Datenprozessor verwendet wird.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGEN
  • Wie in Fig. 1 gezeigt wird, wird eine Vorrichtung zum Aufsuchen und Verfolgen einer Punktquelle in einem Objektraum bereitgestellt. Die Vorrichtung 10 enthält eine zielorientierte FLIR-Einheit 12, welche typischerweise auf einem Flugzeug befestigt werden kann. Die zielorientierte FLIR-Einheit 12 enthält einen FLIR 14, welcher mit einer kardanischen Aufhängung (nicht gezeigt) mechanisch in Verbindung steht. Die kardanische Aufhängung wird dazu herangezogen, den FLIR während des Such- und Verfolgungsvorganges gemäß der unten beschriebenen Weise zu orientieren bzw. auszurichten.
  • Die zielorientierte FLIR-Einheit steht elektrisch mit einer verketteten elektronischen Einheit bzw. elektronischen Einheit des Systems 16 in Verbindung. Dies bezüglich sendet die verkettete elektronische Einheit 16 Signale zu der kardanischen Aufhängung der zielorientierten FLIR-Einheit 12 über einen Steuerbus 18, während die verkettete elektronische Einheit 16 Informationen von der zielorientierten FLIR-Einheit 12 unter Beobachtung bzw. Berücksichtigung des Objektraumes über einen Videobus 20 empfängt. Die verkettete elektronische Einheit 16 führt Operationen aus, die nötig sind, um die zielorientierte FLIR-Einheit 12 anzutreiben, und ebenso die Information von der zielorientierten FLIR Einheit 12 zu verarbeiten, so daß die Information visuell dargestellt werden kann. Beispielsweise enthält die verkettete elektronische Einheit 16 die elektronische Regelschaltung 22, die verwendet wird, um die kardanische Aufhängung zu kontrollieren, welche zur Orientierung der zielorientierten FLIR-Einheit 12 verwendet wird. Ferner enthält die verkettete elektronische Einheit 16 die elektronische Videoschaltung 24, welche verwendet wird, um Videosignale zu erzeugen, welche an einen Monitor weitergegeben werden und in der unten beschriebenen Art und Weise aufgenommen bzw. registriert werden.
  • Die verkettete elektronische Einheit 16 weist ferner eine verkettete Spannungsversorgung 26 auf. Die verkettete Spannungsversorgung 26 wird verwendet, um die Spannung zu liefern, welche benötigt wird, um die verkettete elektronische Einheit 16 und ebenso die zielorientierte FLIR-Einheit 12 anzutreiben. Die verkettete elektronische Einheit 16 weist ferner die elektronische Interface-Einheit 28 auf. Die elektronische Interface-Einheit 28 wird verwendet, um Signale, die empfangen werden von und ausgesendet werden an die elektronische Infrarot-Such- und Verfolgungseinheit, welche unten beschrieben wird, in Signale zu konvertieren, welche von der verketteten elektronischen Einheit 16 verwendet werden können. Wie die auf diesem Gebiet arbeitenden Fachmänner erkennen werden, hängt die Gestaltung der elektronischen Interface-Einheit 28 von dem speziellen Such- und Verfolgungssystem ab, welches verwendet wird. Allerdings kann allgemein festgehalten werden, daß die elektronische Interface-Einheit 28 Komponenten aufweisen wird, welche dazu herangezogen werden, um ein IRIG-Timing bereitzustellen, die laufende Sichtlinien position von den Drehwinkelgebern und optischen Abtastern zu liefern, um die Detektoridentifikation und den Signalausgang an die elektronische Infrarot-Such- und Verfolgungseinheit zu liefern, serielle oder parallele Multiplexverfahren der Detektorsignalausgänge zu liefern, und das Interface-Befehls- und Steuerungsrelais an und von der elektrischen Infrarot-Such- und Verfolgungseinheit für IRST-Suchmoden zu liefern und auf eine Sichtlinienabbildungsverfolgung umzuschalten.
  • Die verkettete elektronische Einheit bzw. elektronische Systemeinheit 16 enthält ebenso einen Analog-zu- Digitalumwandler 30, welcher dafür verwendet wird, den analogen Ausgang von der elektronischen Interface-Einheit 28 in ein digitales Signal umzuwandeln, welches von der unten beschriebenen elektrischen Infrarot-Such- und Verfolgungseinheit verwendet werden kann. Ferner enthält die verkettete elektronische Einheit 16 einen Digitalmultiplexer 32, welcher dazu verwendet wird, Befehle, Steuerungen und Daten eines initialen Navigationssystems von Flugzeugsystemen zu empfangen.
  • Die verkettete elektronische Einheit 16 weist ferner eine verkettete Kompensationseinheit bzw. System- Kompensationseinheit 36 auf, welche verwendet wird, um eine Vielzahl von Funktionen auszuführen, die anwendungsspezifisch sind. Beispielsweise kann die verkettete Kompensationseinheit 36 Kalibrierungsfunktionen bereitstellen, welche notwendig sind, um exakte Raumpositionen zu erhalten. Diese Kalibrierungsfunktionen können enthalten:
  • Asynchrone Zeit- und Abtastpositionen
  • Asynchrone Zeit- und Sichtlinienpositionen
  • Im-Blickfeld-Ziel-Positionierungen relativ zu der Sichtlinie
  • Sichtlinienraumposition im Verhältnis zur Winkelgröße und Winkelposition
  • Meßkalibrierung des kardanisch aufgehängten Abtastens während der Start-Stopp-Segmente und Hysterese
  • Ferner kann die verkettete Kompensationseinheit 36 Filter zur Eliminierung des Rauschens von dem Drehwinkelgeberabgriff und ebenso der Filter, und zum Formatieren von Fehlerparametern der Rauscheingänge, beispielsweise der Scannerposition, IRIG-Zeiten und der Korrelationen der Sichtlinienposition mit der Zeit bereitstellen. Die verkettete Kompensationseinheit 36 kann ebenso externe Abtastraten für die kardanische Aufhängung und ein "verwendbares" Besichtigungsfeld für die Steuerungseingänge bereitstellen. Die verkettete Kompensationseinheit 36 kann ebenso den Spurenwirkungsgrad gegenüber den Abtastraten und den Strich-bzw. Streifenmustern der kardanischen Aufhängung anpassen und ebenso Informationen bereitstellen, die das Format und die Aufnahmeraten der Detektorkanaleingänge berücksichtigen. Die verkettete Kompensationseinheit 36 kann ferner ebenso Informationen zur Korrektur bereitstellen, um Koordinationensysteme für die Sensorrollnacheilung und nicht horizontaler Abbildungsabtastlinien zu verfolgen.
  • Zusätzlich kann die verkettete Kompensationseinheit 36 herangezogen werden, um verrauschte Hebe- bzw. Steigewinkel, Geschwindigkeiten und Höhenlagen bzw. Geschwindigkeitsquoten und Leistungsgradinformationen zu glätten und ebenso für zeitliche Feldverschachtelungen und Positionskorrelationen bereitzustellen. Die verkettete Kompensationseinheit 36 kann ferner beinhalten einen anpaßbaren Mehrfach-Treffer-Algorithmus (d. h., Korrelationen gegenüber externen Abtastraten für die kardanische Aufhängung), und ebenso für einen kontinuierlichen Spurenalgorithmus zur Minimalisierung der räumlichen Lücken in dem Detektormuster bereitstellen. Die verkettete Kompensationseinheit 36 kann ferner einen Korrelationsabstandsalgorithmus für einen zeitlich asynchronen Mehrfachtreffer mit ausreichender Zeit zwischen den Treffern für eine reguläre Spurenvorhersage- bzw. voraussage bereitstellen. Schließlich kann die verkettete Kompensationseinheit 36 ebenso für eine Echtzeit-Verarbeitung bereitstehen und ebenso für eine Suchmustersteuerung, welche auf den Spuren basiert. Dementsprechend ist die verkettete Kompensationseinheit 36 anwenderspezifisch und führt die Funktionen aus, welche notwendig sind, um den unten beschriebenen Algorithmen zu ermöglichen, mit den Anwendungen zu funktionieren, mit denen die Vorrichtung 10 vorgesehen ist, benutzt zu werden.
  • Die Vorrichtung 10 enthält ebenso eine verkettete elektronische Steuerungseinheit 38 und ebenso eine Steuer- bzw. Regeleinheit 40 für den Operateur. Die Steuereinheit 40 für den Operateur wird verwendet, um die zielorientierte FLIR-Einheit 12 auf eine bestimmte Punktquelle in dem Objektraum auszurichten. Die Steuereinheit 40 für den Operateur kann entweder eine manuelle Steuerung oder ein automatischer Spurensucher sein. Die verkettete elektronische Steuereinheit 38 wird verwendet, um als Schnittstelle die Steuereinheit 40 für den Operateur mit der verketteten elektronischen Einheit 16 zu verbinden. Die Vorrichtung 10 enthält ferner einen Anzeigemonitor 42, welcher dazu verwendet wird, den Ausgang von der verketteten elektronischen Einheit 16 visuell anzuzeigen. Ein Videorecorder 44 ist ebenso vorgesehen, welcher elektrisch mit dem Anzeigemonitor 42 verbunden ist, um die visuelle Anzeige, welche von dem Anzeigemonitor 42 erzeugt wird, aufzunehmen bzw. zu registrieren. Zusätzlich weist die Vorrichtung 10 einen Digitalrecorder 46 auf, welcher verwendet wird, um den Ausgang der elektronischen Videoschaltung 24 der verketteten elektronischen Einheit 16 aufzunehmen.
  • Die Komponenten der oben beschriebenen Vorrichtung 10 können ein "HNVS-Block 01/Systemteile Nr. 3897000- 110 Nachtsichtsystem", welches von "Hughes Aircraft Company" hergestellt wird, enthalten. Es ist jedoch verständlich, daß andere geeignete Nachtsichtsysteme ebenfalls verwendet werden können.
  • Wie die auf dem Gebiet tätigen Fachleute erkennen werden, kann die Vorrichtung 10 mit lediglich den oben beschriebenen Komponenten nicht allgemein für ein kontinuierliches Suchen und Verfolgen aus mehreren Gründen verwendet werden. Beispielsweise tendieren die Lücken, welche häufig zwischen den einzelnen individuellen Detektorelementen in der Detektoranordnung der zielorien tierten Allgemeinmodul-FLIR-Einheit 12 vorhanden sind, dazu, die zielorientierte FLIR-Einheit 12 zu veranlassen, Punktquellen auszulassen. Falls sich im Abbildungsmodus befindlich, würde der Ausgang bzw. die Ausgabe der zielorientierten FLIR-Einheit 12 die verkettete elektronische Einheit 16 veranlassen, Mehrfach-Zieltreffer in einem einzigen Sichtfeld aufgrund einer Mehrfach-Überabtastung zu registrieren. Zusätzlich tendierten die nichtlineare Abtastrate einer kardanischen Aufhängung und der Bildabtaster der zielorientierten FLIR-Einheit 12 dazu, die räumlichen Positionsgenauigkeiten als äußerst schwierig zu gestalten, insbesondere im Hinblick auf die zeitliche Asynchronität, welche zwischen den individuellen Detektorelementen und dem optischen Scanner assoziiert ist. Die Eingänge der verketteten elektronischen Einheit 16, welche verwendet wird, um eine Information, beispielsweise Positions- und Navigationsdaten zu erhalten, sind relativ verrauscht, wobei derartige Systeme häufig ein relativ geringes Signal-zu-Rauschverhältnis und eine geringe Auflösung aufwiesen. Schließlich verwenden Systeme, welche die gleichmodularen-FLIRs verwenden, weder inertial stabilisierte Koordinaten noch konnten derartige Systeme die Leistungserfordernisse eines einfach funktionierenden Infrarotsuch- und Verfolgungssystems erreichen, welche häufig von dem Militär angefordert werden. Aus diesen Gründen kann die Vorrichtung 10 mit lediglich den oben beschriebenen Komponenten nur in einem relativ langsamem Schrittanhalte bzw. -verhaltemodus oder in einem sehr langsamen Suchmodus betrieben werden.
  • Um diese Nachteile zu überwinden, so daß die zielorientierte gleichmodulare FLIR-Einheit 12 beim Aufsuchen und Verfolgen verwendet werden kann, enthält die Vorrichtung 10 ferner eine Einheit zum Nachweis und Verfolgen mehrerer Ziele. Wird die Einheit zum Nachweis mehrerer Ziele verwendet, so ist die Vorrichtung 10 in der Lage, kontinuierliche Infrarote-Such- und Verfolgungsvorgänge bzw.- abläufe unter Verwendung einer gleichmodularen zielorientierten FLIR-Einheit durchzuführen.
  • Um eine Einheit zum Nachweis und Verfolgen mehrerer Ziele bereitzustellen, ist eine elektronische Infrarot-Such-und-Verfolgungseinheit ("IEU") 48 vorgesehen. Die IEU 48 selbst enthält eine Servo-Interface Einheit 50, welche in Fig. 2 dargestellt ist. Die Servo-Interface-Einheit 50 wird verwendet, um Informationen, die die laufende Stellung der kardanischen Aufhängung berücksichtigt, zu empfangen und ebenso Informationen an die verkettete elektronische Einheit 16 zu liefern, welche die darauffolgende Positionierung der kardanischen Aufhängung berücksichtigt. Die Servo-Interface-Einheit 50 enthält einen Winkelgeber-zu-Digitalkonverter bzw.- umwandler 52, welcher die Ausgabe des Winkelgebers (nicht gezeigt) der zielorientierten FLIR-Einheit 12 über die verkettete Elektronikeinheit 16 empfängt. Der Winkelgeber der zielorientierten FLIR Einheit 12 wird verwendet, um elektrische Signale als Reaktion auf die Positionierung der kardanischen Aufhängung zu erzeugen. Die Servo-Interface-Einheit 50 enthält ebenfalls die Verstärker 54 und 56, welche verwendet werden, um die Signale von der verketteten elektronischen Einheit 16 vor dem Empfang durch den Winkelgeber-zu-Digitalumwandler 52 zu verstärken.
  • Der Ausgang von dem Winkelgeber-zu-Digitalumwandler 52 wird an die elektronische Interface-einheit 28 über einen Puffer 58 weitergeleitet, welcher verwendet wird, um die Ausgabe des Winkelgeber-zu-Digitalumwandlers 52 zu speichern, bis die Ausgabe in Bereitschaftsstellung ist, um von der verketteten elektronischen Einheit 16 aufgenommen zu werden. Der Ausgang von dem Winkelgeber-zu-Digitalumwandler 52 wird ferner an einen Addierer 60 über einen Digital-zu-Analogumwandler 62 weitergeführt. Der Addierer 60 empfängt ebenfalls Eingänge von einem Ratengenerator 64, einem Streifengenerator 66 und einer elektronischen Mittenschaltung 68. Der Ratengenerator 64 wird verwendet, um die Geschwindigkeit der Bewegung der kardanischen Aufhängung anzugeben und zu steuern. Der Streifengenerator 66 wird verwendet, um das Suchmuster des kardanisch aufgehängten FLIRs und die Richtung der Suche festzulegen, wobei die elektronische Mittenschaltung 68 verwendet wird, um die Mittenposition der FLIR-Sichtlinie anzuzeigen. Der Ausgang bzw. die Ausgabe von dem Addierer 60 wird zu der verketteten elektronischen Einheit 16 über einen Verstärker 70 und ebenso einen Schalter 72 weitergeleitet. Der Schalter 72 wird zur Steuerung verwendet, wenn die zielorientierte FLIR-Einheit 12 in einem Abtastmodus betrieben wird und wenn die zielorientierte FLIR Einheit 12 in einem Such- und Verfolgungsmodus betrieben wird.
  • Die IEU 48 weist ferner einen Signalprozessor 74 und ebenso einen Datenprozessor 76 auf. Der Signalprozessor 74 wird verwendet, um die folgenden, wie in Fig. 3 gezeigten Algorithmen durchzuführen: einen Algorithmus 78 für eine anpaßbare Schwelle, einen Algorithmus 80 für die Störfleckanpassungsschwelle und einen Algorithmus 82 für einen Spitzennachweis. Wie im Nachfolgenden ausführlich erläutert wird, wird der Algorithmus 78 für die anpaßbare Schwelle verwendet, um eine anpaßbare Schwelle zu erzeugen, welche veranlaßt, daß breite Quellenstörflecke zurückgewiesen werden. Außer während der Initialisierung erfordert der Algorithmus 78 für die anpaßbare Schwelle keine interaktive Steuerung von dem Datenprozessor 76. Der Algorithmus 80 für die Störfleckanpassungsschwelle reduziert die Hintergrundstörflecken, welche Falschalarme hervorrufen können, indem die Eingangsaufnahmen auf einer FLIR-Feldbereichsabschnittsbasis unter der Schwellenkontrolle des Datenprozessors 76 hinsichtlich der die Schwelle überprüft werden. Diesbezüglich begrenzt der Algorithmus 80 für die Störfleckanpassungsschwelledie Anzahl der Beobachtungen, welche an den Datenprozessor 76 so weitergeleitet werden, daß der Datenprozessor nicht überlastet wird. Der Algorithmus 82 für den Spitzennachweis, welcher ebenso von dem Signalprozessor durchgeführt wird, korrigiert den Ausgang des Signalprozessors 74 hinsichtlich mehrerer Aufnahmen des gleichen Ziels, indem die Zielabbildungen die Mehrfachaufnahmen bzw.- proben überschreitet. Jeder dieser einzelnen Algorithmen wird nachfolgend vollständig erläutert werden.
  • Der Datenprozessor 76 wird verwendet, um die folgenden Algorithmen durchzuführen:
  • Schwellenkontrolle, Algorithmus für die Spurenerfassung und Spurenassoziierung, Spurenfilteralgorithmus, Observationsakzeptanzfunktion, Algorithmus für eine Vidicongeisterbilder bzw. -schatten-Logik, Algorithmus zur FLIR-Überabtastung-Logik, Spurenklassifikationsalgorithmus und ebenso verschiedene Eingangs/Ausgabe-Prozessorfunktionen. Der Organisationsablauf der Algorithmen, welche von dem Datenprozessor 76 durchgeführt werden, wird unter Bezugnahme auf Fig. 4 beschrieben. Die Algorithmen, welche von dem Datenprozessor 76 mit einer FLIR-Feld- oder Referenzrate (typischerweise 30 bzw. 60 Hz) durchgeführt werden, werden innerhalb der Box plaziert, welche durch das Bezugszeichen 84 identifiziert ist, während die Algorithmen, welche mit der Verfolgungs-während-Abtastungsrate (typischerweise 1 Hz) durch den Datenprozessor 76 durchgeführt werden, in der Box gezeigt werden, welche durch das Bezugszeichen 86 identifiziert ist. Die Information, welche von dem Datenprozessor 76 aus dem Signalprozessor 74 empfangen wird, wird vorab von der Observationsakzeptanzfunktion 88 verarbeitet. Die Observationsakzeptanzfunktion 88 akzeptiert Observationen bzw. Beobachtungen von dem Signalprozessor 74 und ordnet den Observationsspeicherzeiger auf jede Observation zu, um eine effizientere Schichtenverarbeitung zu ermöglichen. Zusätzlich erlaubt die Observationsakzeptanzfunktion 88 die Umwandlung von Abtastfeldern und Abtastlinieninformationen zu der aktuellen Höhenlage, welche auf den Ausgang der kardanischen Winkelgeber und dem Vidiconsynchronisationssignal basiert. Die Information, welche von der Observationsakzeptanzfunktion 88 erzeugt wird, wird in dem Feld- oder Referenzspeicher 90 gespeichert, welcher die Daten von jedem Feld speichert, bis alle Felder abgetastet sind. Die Information, welche in dem Speicher 90 gespeichert wird, wird dann von dem logischen Algorithmus 92 für die Vidiconschatten bzw. dem Algorithmus 92 für die Vidicongeisterbilder-Logik aufgegriffen bzw. verwendet. Wie ausführlicher unten beschrieben wird, wird der Algorithmus 92 für eine Vidicongeisterbilder-Logik verwendet, um die Geister bzw. Schatten zu eliminieren, welche auftreten können, wenn eine Vidicon-zielorientierte FLIR- Einheit aufgrund des schichtweisen Abtastens verwendet wird. Der Ausgang von dem Algorithmus 92 für die Vidicongeisterbilder-Logik wird zu dem logischen Algorithmus 94 zur FLIR-Überabtastung bzw. dem Algorithmus 94 für eine FLIR-Überabtastungs-Logik weitergeleitet, welche verwendet wird, um Observationen auszulöschen, welche das Ergebnis der Überabtastung sind.
  • Der Ausgang von dem Algorithmus 94 für eine FLIR- Überabtastungs-Logik wird auf den Verfolgungs-während- Abtastungs-Observationspuffer 96 des Datenprozessors 76 weitergeleitet. Die Information, die in dem Verfolgungs-während-Abtastungs-Observationspuffer 76 gespeichert ist, wird verwendet, um reiterative Schleifen auf jeder Spur durchzuführen, wie es durch die Box angezeigt ist, welche mit dem Bezugszeichen 98 identifiziert ist. Diese Schleifen enthalten die Anwendung des Assoziierungsalgorithmus 100 für die Spuren bzw. Spurenanoziierungsalgorithmus, welcher verwendet wird, um neue Abtastobservationen zuzuordnen, um Spuren vor dem Filtern festzulegen. Die Schleifen, die in der Box 98 enthalten sind, beinhalten einen Filteralgorithmus 102 für die Spuren, welcher verwendet wird, um Spuren zu glätten und vorherzusagen. Zusätzlich enthalten die Schleifen, welche in der Box 98 enthalten sind, einen Klassifikationsalgorithmus 104 für die Spuren bzw. Spurenklassifikationsalgorithmus, welcher verwendet wird, um Spuren entweder als Zielspuren oder als Schattenspuren zu charakterisieren. Die Information, welche durch den Klassifikationsalgorithmus 104 für die Spuren erzeugt wird, wird in der Spurendatei 106 gespeichert, welche Information bezüglich Zielspuren, vorläufige Spuren und Schatten- bzw. Störfleckspuren enthält. Die Information, welche während der Anwendung des Klassifikationsalgorithmus 104 für die Spuren erzeugt wird, wird von dem Erfassungsalgorithmus 108 für die Spuren verwendet, um vorläufige Spuren durch Zuordnen zweier nachfolgender Abtastobservationen zu bilden.
  • Nachdem die Schleifen, welche mit der Box 98 identif iziert sind, durchgeführt wurden, führt der Datenprozessor 76 den Steueralgorithmus 110 für die Schwelle aus, welcher verwendet wird, um die Schwelle, welche von dem Algorithmus für das Störfleckenverzeichnis 80 erzeugt wurde, zu modifizieren, um die laufenden Datenverarbeitungsresourcen bzw. -kapazitäten wiederzugeben. Nachdem der Schritt 110 ausgeführt wird, vollzieht der Datenprozessor 76 die nötigen Eingabe/Ausgabeprozessorfunktionen 112, um eine Information auf den Anzeigemonitor 62 und ebenso dem Digitalrecorder 46 zu liefern.
  • Die Organisation der Algorithmen, welche in der Box 98 mittels des Schritts 112 ausgeführt werden, wird im Folgenden unter Bezugnahme auf Fig. 5 genau beschrieben. Nach Eintritt in die Box 98 führt der Datenprozessor 76 den Schritt 114 aus, in dem der Datenprozessor 76 bestimmt, ob überhaupt eine Observation von dem Datenprozessor 76 empfangen wurde. Falls keine Observation vorliegt, führt der Datenprozessor 76 den Schritt 116 aus, in welchem der Datenprozessor 76 bestimmt, ob überhaupt Spuren durch den Datenprozessor 76 identifiziert wurden. Falls keine Spuren von dem Datenprozessor 76 identifiziert wurden, beendet der Datenprozessor 76 die Ausführung des Algorithmus für die Verfolgung über den Schritt 118.
  • Falls der Datenprozessor 76 beim Schritt 114 feststellt, daß Observationen vorgelegen haben, führt der Datenprozessor 76 dann Schritt 122 aus. Beim Schritt 122 bestimmt der Datenprozessor 76 dann, ob Zielspuren vorliegen. Falls Zielspuren vorliegen, führt der Datenprozessor 76 Schritt 124 aus, bei dem der Assoziationsalgorithmus 100 für die Spuren durchgeführt wird. Nachdem der Schritt 124 ausgeführt wurde, führt der Datenprozessor 76 Schritt 126 aus, in dem der Filteralgorithmus 102 für die Spuren bzw. Spurenfilteralgorithmus durchgeführt wird. Der Klassifikationsalgorithmus 104 für die Spuren wird dann bei Schritt 128 ausgeführt, welcher das Gefährdungsniveau der Spur bestimmt und ob oder ob nicht die Spur ein Störfleck ist. Nachdem Schritt 128 ausgeführt wurde oder falls bei Schritt 122 der Datenprozessor 76 festgestellt hat, daß keine Zielspuren existieren, führt der Datenprozessor 76 den Schritt 130 aus.
  • Bei Schritt 130 stellt der Datenprozessor 76 fest, ob vorläufige Spuren vorliegen. Falls der Datenprozessor 76 feststellt, daß vorläufige Spuren vorliegen, führt der Datenprozessor 76 den Assoziationsalgorithmus 100 für die Spuren bei Schritt 132 aus und führt dann den Filteralgorithmus 100 für die Spuren bei Schritt 134 aus. Nachdem der Filteralgorithmus 100 für die Spuren beim Schritt 134 durchgeführt wurde oder falls der Datenprozessor beim Schritt 130 festgestellt hat, daß keine vorläufigen Tracks vorliegen, führt der Datenprozessor 76 den Schritt 136 durch.
  • Beim Schritt 136 bestimmt der Datenprozessor 76, ob Störfleckspuren vorhanden sind. Falls Störfleckspuren vorhanden sind, führt der Datenprozessor 76 den Assoziationsalgorithmus 100 für die Spuren im Hinblick auf die Störfleckspuren bei Schritt 131 und ebenso den Filteralgorithmus für die Spuren 100 bei Schritt 140 aus. Der Klassifikationsalgorithmus 104 für die Spuren wird dann beim Schritt 142 ausgeführt, welcher das Gefährdungsniveau der Spur bestimmt und ob die Spur ein Störfleck ist. Nachdem der Klassifikationsalgorithmus 104 für die Spuren den Schritt 140 durchgeführt hat oder falls beim Schritt 136 der Datenprozessor 76 bestimmt, daß keine Störfleckspuren vorhanden sind, führt der Datenprozessor 76 den Schritt 144 aus.
  • Beim Schritt 144 bestimmt der Datenprozessor 76, ob irgendwelche vorherigen Observationen vorgelegen haben, welche nicht zugeordnet bzw. assoziiert wurden entweder als eine Zielspur, eine vorläufige Spur oder eine Störfleckspur. Falls keine nichtassoziierten Observationen vorliegen, beendet der Datenprozessor 76 die Ausführung der Verfolgungsalgorithmen bei Schritt 118. Falls vorherige Observationen vorhanden sind, welche nicht mit entweder einer Zielspur, einer vorläufigen Spur oder einer Störfleckspur assoziiert wurden, führt der Datenprozessor 76 den Schritt 146 aus, welcher versucht, eine neue vorläufige Spur über den Erfassungsalgorithmus 103 für die Spuren zu bilden. Nachdem der Schritt 146 ausgeführt wird, beendet der Datenprozessor 76 die Verfolgungsalgorithmen über den Schritt 118.
  • Die Zwischenverhältnisse der Algorithmen, welche von dem Signalprozessor 74 und dem Datenprozessor 76 durchgeführt werden, wurden oben beschrieben. In dem Folgenden wird jeder der Algorithmen vollständig detailliert beschrieben.
  • 1. Algorithmus des Signalprozessors 1.1 Algorithmus für eine anpaßbare Schwelle
  • Um ein Mittel für die Erzeugung einer adaptiven bzw. anpaßbaren Schwelle bereitzustellen, ist ein Algorithmus 78 für eine anpaßbare Schwelle vorgesehen. Der Algorithmus für die anpaßbare Schwelle wird von dem Signalprozessor 74 verwendet, um breitbandige Störflecken der Quelle zurückzuweisen, um die Möglichkeit zu reduzieren, daß die Vorrichtung 10 natürliche Hintergründe als Ziel identifiziert. Wie unten ausführlich erläutert wird, entfernt der Algorithmus 78 für die anpaßbare Schwelle das Rauschen entsprechend einem niederfrequenten Wiener-Typ 1/f, welches gewöhnlicherweise mit natürlichem Hintergrund assoziiert wird. Im Gegensatz dazu erlaubt der Algorithmus 78 für die anpaßbare Schwelle hochfrequente Eingangssignale hindurchzutreten, welche typischerweise mit Zielen assoziiert werden.
  • Ein vereinfachtes Blockdiagramm des Algorithmus 78 der anpaßbaren Schwelle ist in Fig. 6 gezeigt. Der Algorithmus 78 für die anpaßbare Schwelle digitalisiert Aufnahmen von jedem Detektor, sobald er den Hintergrund und möglicherweise ein oder mehrere Ziele von der verketteten Kompensationseinheit 36 abtastet. Die Detektoraufnahmen stellen Informationen hinsichtlich der potentiellen Zielsignale dar und werden spezieller unten beschrieben. Die vom Detektor digitalisierten Aufnahmen werden auf einen Spurenfilter 148 und einen Schutzfilter 150 weitergeleitet, welcher Teil des Algorithmus 78 für die anpaßbare Schwelle ist. Der Zielfilter 148 weist einen Hochpaßfilter 152 für die Spuren, einen Tiefpaßfilter 154 für die Spuren und ebenso ein Zeitverzögerungselement 156 auf. Der Hochpaßfilter 152 für die Spuren wird verwendet, um den Hauptteil des niederfrequenten Rauschens, welcher mit vielen natürlichen Hintergründen assoziiert wird, zu entfernen, während der Tiefpaßfilter 154 für die Spuren verwendet wird, um Hochfrequenzsignale, die im allgemeinen mit dem Rauschen assoziiert werden, zu entfernen, um so das Signal-zu-Rauschverhältnis des Zielnachweises zu optimieren. Der Ausgang des Tiefpaßfilters 154 für das Ziel wird auf das Zeitverzögerungselement 156 weitergeleitet. Das Zeitverzögerungselement 156 wird verwendet, um den Ausgang des Tiefpaß-Zielfilters 154 zu verzögern, bevor er an den Komparator bzw. Vergleicher 158 weitergeleitet wird, um so die schnellere Anstiegszeit des Zielfilters 156 im Verhältnis zu dem Schutzfilter 150 zu kompensieren.
  • Der Betrieb des Hochpaß-Zielfilters 152 des Zielfilters 148 wird nun unter Bezugnahme auf Fig. 7 beschrieben. Die Variablen, welche verwendet werden, um die Betriebsweise des Hochpaßfilters 152 des Ziels zu beschreiben, werden im Folgenden dargestellt:
  • K&sub0; = Filterverstärkungsfaktor für den Hochpaß-Zielfilter
  • ai,j = Digitalamplitude der Detektorlinie j zur Zeit (Aufnahme) i
  • a'i-1,j = Inhalt des Filterspeichers für die letzte Aufnahme
  • j = Detektorliniennummer
  • i = laufende Aufnahmenummer
  • wobei die Verarbeitung, welche stattfindet, repräsentiert werden kann durch:
  • a'i,j = a'il,j + K&sub0;(ai,j-a'i-1,j)
  • a'i-1,j E a'i,j (d. h., Speicher neusetzen)
  • und in einer Ausgabe resultiert mit:
  • (ai,j - a'i-1,j) = Xi,j
  • Um diese Bearbeitung zu implementieren, weist der Hochpaß-Zielfilter 152 einen Subtator 162 auf, welcher den Wert von ai,j von dem Wert von a'i-1,j abzieht, welcher in dem Speicher 164 gespeichert wird. Der Ausgang Xi,j von dem Subtator 162 wird an den Tiefpaß-Zielfilter 154 und ebenso an den Vervielfacher bzw. Multiplier 166 weitergegeben, wobei der Ausgang vom dem Subtator 162 mit K&sub0; multipliziert wird, welcher empirisch bestimmt ist. Der Ausgang von dem Vervielfacher 166 wird auf den Addierer 168 weitergeleitet, welcher den Ausgang von dem Vervielfacher 166 mit dem Ausgang des Speichers 164 addiert. Der Ausgang a'i,j von dem Addierer 168 wird dann zu dem Speicher 164 zur Speicherung weitergeleitet.
  • Der Ausgang Xi,j von dem Hochpaß-Zielfilter 152 wird auf den Tiefpaß-Zielfilter 154 weitergeleitet, wobei dessen Betrieb im Folgenden unter Bezugnahme auf Fig. 8 beschrieben wird. Die Variablen, welche in Verbindung mit dem Tiefpaß-Zielfilter 154 gezeigt werden, werden im Folgenden dargestellt:
  • K&sub1; = Filterverstärkungsfaktor des Tiefpaßfilters 154
  • Aj = Schwelle für die Detektorlinie j von dem Datenprozessor 76
  • Xi,j = (ai,j - a'i-1,j) = Ausgang des Hochpaß-Zielfilters 152
  • Y'i-1,j = Inhalt des Filterspeichers
  • N = Anzahl der Aufnahmen, welche verzögert werden
  • (typischerweise 3)
  • Die Verarbeitung, welche durch den Tiefpaß-Zielfilter 154 durchgeführt wird, kann algebraisch wie unten angezeigt repräsentiert werden:
  • (a) Y'i,j = Y'i-1,j + K&sub1; (xi,j - y'i-1,j) Y'i-1,j E yi,j (d. h., Speicher neusetzen)
  • (b) speichere yi,j, yi-1,j, ..., yi-N,j
  • (c) setze Zi,j = yi-N,j, falls yi-N,j ≥ Aj setze Zi,j = 0, falls yi-N,j > Aj
  • Um diese Bearbeitung bzw. Verarbeitung durchzuführen, weist der Tiefpaß-Zielfilter 154 einen Subtator 170 auf, der Xi,j von y'i-1,j abzieht, welcher in einem Speicher 172 gespeichert ist. Der Ausgang von dem Subtator 170 wird dann mit K&sub1; durch den Vervielfacher 174 multipliziert, wobei dessen Wert empirisch bestimmt ist. Der Ausgang des Vervielfachers 174 und ebenso der Inhalt des Speichers 172 werden dann durch den Addierer 176 addiert. Der Ausgang von dem Addierer 176 wird dann zu dem Speicher 172 und ebenso zu dem Verzögerungselement 156, welches den Ausgang von dem Addierer 176 verzögert, von N Aufnahmen weitergeleitet.
  • Wie oben erläutert wurde, werden die digitalisierten Detektoraufnahmen von der verketteten Kompensationseinheit 36 ebenso an einen Schutzfilter 150 weitergeleitet. Der Schutzfilter 150 ist so gestaltet, um eine Signalausgangseinhüllende mit größerer Amplitude als diejenige des Zielfilters 148 für zeitweise überschreitende Ausgänge zu produzieren. Wie unten vollständiger beschrieben wird, wird der Ausgang des Zielfilters 148 mit dem Ausgang des Schutzfilters 150 verglichen und ebenso mit einer Voreinstellung der Störfleckenanpassungsschwelle, welches von dem Datenprozessor 76 erzeugt wird. Falls der Ausgang des Zielfilters 148 sowohl den Ausgang von dem Schutzfilter 150 als auch die Voreinstellung der Störfleckenanpassungsschwelle überschreitet, wird ein Schwellenüberschreitungssignal von dem Algorithmus 78 für die anpaßbare Schwelle erzeugt
  • Der Schutzfilter 150 weist einen Hochpaßschutzfilter 178 und einen Tiefpaßschutzfilter 180 auf, wobei jeder davon vollständig unten beschrieben wird. Zusätzlich weist der Schutzfilter 126 ebenso ein Schutzverstärkungselement 182 auf, welches den Ausgang des Tiefpaßschutzfilters 180 als Reaktion auf ein Schutzverstärkungssignal von dem Datenprozessor 76 verstärkt. Dies ermöglicht das Schutzfilterniveau, auf existierende Störflecke während der Initialisierung optimiert zu werden.
  • Der Betrieb des Hochpaßschutzfilters 178 wird nun unter Bezugnahme auf Fig. 9 beschrieben und unter Verwendung der folgenden Variablen:
  • K&sub2; = Filterverstärkungsfaktor für den Hochpaßschutzfilter 156
  • ai,j = Digitalamplitude von der Detektorlinie j zur Zeit (Aufnahme) i
  • G'i,j = Inhalt des Tiefpaßschutzspeichers
  • j = Detektorliniennummer
  • i = laufende Aufnahmenummer
  • Wie in Fig. 9 gezeigt ist, wird die Digitalamplitude ai,j der Detektorlinie j zur Aufnahmezeit i an einen Subtator 184 und ebenso an einen Filterspeicher 186 weitergeleitet. Der Subtator 184 subtrahiert dann von ai,j den Wert von G'i,j, welcher in dem Speicher 194 gespeichert ist. Das Ergebnis dieser Subtrahierung wird dann mit dem Filterverstärkungsfaktor K&sub2; durch den Vervielfacher bzw. Multiplier 188 multipliziert und an den Addierer 190 weitergeleitet. Zusätzlich wird das Ergebnis von der Subtrahierung an ein UND-Gatter 192 weitergeleitet, wobei dessen Ausgang gleich yi,j oder gleich Null ist, in Abhängigkeit davon, ob yi,j größer oder kleiner als Null ist. Der Addierer 190 addiert den Ausgang von dem Vervielfacher 188 mit dem Inhalt des Speichers 194. Der Ausgang des Addierers 190 wird dann an den Filterspeicher 186 weitergeleitet. Der Ausgang von dem Filterspeicher 1986 wird dann an den Speicher 194 weitergeleitet.
  • Dementsprechend kann die Verarbeitung, welche von dem Hochpaßschutzfilter 178 vorgenommen wird, folgendermaßen dargestellt werden:
  • (a) Gi,j = G'i,j + K&sub2;(ai,j - G'i,j) = G'i,j + K&sub2; yi,j
  • (b) Setze yi,j = 0, falls yi,j < 0
  • (c) Setze G'i,j = yi,j, falls yi,j > 0
  • Setze G'i,j = Ai,j, falls yi,j = 0
  • Der Ausgang yi,j des Hochpaßschutzfilters 178 wird dann an den Tiefpaßschutzfilter 180 weitergeleitet, wobei deren Betriebsweise unter Bezugnahme auf Fig. 10 beschrieben wird. Die Variablen, welche für die Beschreibung der Betriebsweise des Tiefpaßschutzfilters 180 verwendet werden, haben folgende Darstellungen:
  • yi,j = Ausgang des Hochpaßschutzfilters 156 für die Aufnahme i der Detektorlinie j
  • Zi,j = Ausgang der verzögerten Zielaufnahme i der Detektorlinie j
  • K&sub3; = Verstärkungsfaktor des Tiefpaßschutzfilters (empirisch bestimmt)
  • K&sub4; = Verstärkungsfaktor des Schutzfilters
  • G"i,j = Inhalt des Tiefpaßschutzfilterspeichers
  • B = Vorspannung des Schutzfilters.
  • Wie in Fig. 10 gezeigt ist, wird der Ausgang yi,j von dem Hochpaßschutzfilter 178 von dem Subtator 196 von dem Wert von G"'i,j abgezogen, welcher in dem Speicher 198 gespeichert ist. Nach dem Subtrahierungsvorgang wird der Ausgang des Subtators 196 mit dem Tiefpaßfilterverstärkungsfaktor K&sub3; durch einen Verviel facher bzw. Multiplier 200 multipliziert. Der Ausgang des Vervielfachers 200 wird dann durch einen Addierer 200 mit G"'i,j addiert, welcher in dem Speicher 198 gespeichert ist. Nach der Addition multipliziert das Schutzverstärkerelement 182 den Ausgang des Addierers 200 mit K4, welcher empirisch bestimmt ist, wobei dann ein Vorspannungsfaktor B (typischerweise Null) mit dem Ausgang des Schutzverstärkungselements 182 mittels der Summationsschaltung 204 addiert wird, um das Signal zu gestalten. Der Ausgang von der Summationsschaltung 204 wird dann auf den Komparator bzw. Vergleicher 160 weitergeleitet, welcher einen Ausgang generiert, der gleich Zi,j ist, falls der Wert von Zi,j größer oder gleich des Werts von G"'i,j ist. Falls der Wert von kleiner als der Wert von G"'i,j ist, dann wird keine Ausgabe von dem Komparator 160 erzeugt. Dementsprechend kann die Verarbeitung, welche von dem Tiefpaßschutzfilter 180 vorgenommen wird, folgendermaßen dargestellt werden:
  • a) G"i,j = G"i-1,j + K&sub3; (yi,j - G"i-1,j)
  • b) G"i,j T G"i-1,j (d. h., Speicher neu setzen)
  • c) G"'i,j = K&sub4; G"i,j + B
  • d) Falls Zi,j &ge; G"'i,j ist, dann erzeuge Observation Zi,j.
  • Wie oben beschrieben ist, enthält der Algorithmus 78 der anpaßbaren Schwelle ferner die Komparatoren 159 und 160, welche elektrisch mit einem UND-Gatter 206, welches in Fig. 6 gezeigt ist, in Verbindung stehen. Der Komparator 158 empfängt den Ausgang von dem Verzögerungselement 156 und ebenso den Ausgang von der Voreinstellung der Störfleckanpassungsschwelle von dem Algorithmus 180 der Störfleckenanpassungsschwelle. Ferner wird der Ausgang von dem Verzögerungselement 156 an den Komparator 160 weitergeleitet, welcher ebenso den Ausgang von einer Summationsschaltung 204 empfängt. Wie oben beschrieben ist, empfängt die Summationsschaltung 204 den Ausgang von dem Schutzverstärkungselement 182 und ebenso von einem Schutzgrundsignal von dem Datenprozessor 76. Falls die Amplitude des Ausgangs von dem Zeitverzögerungselement 156 sowohl die Voreinstellung der Störfleckenanpassungsschwelle, welche von dem Komparator 158 weitergeleitet wurde, als auch den Ausgang der Summationsschaltung 204, welche von dem Komparator 160 weitergeleitet wurde, überschreitet, wird ein Schwellenüberschreitungssignal von dem UND-Gatter 106 erzeugt. Das Schwellenüberschreitungssignal wird dann einem Azimutspeichermedium 208 und ebenso einem Kanalnummerspeichermedium 210 weitergeleitet. Falls das Schwellenüberschreitungssignal von dem Azimutspeicher medium 208 und ebenso von dem Kanalnummerspeichermedium 210 empfangen wird, speichert das Azimutspeichermedium 208 den Azimut der laufenden Observation, während das Kanalnummerspeichermedium 210 die Detektorlinie und das Feld der laufenden Observation speichert. Dementsprechend wird der Azimut und die Kanalnummer der neuesten Observation, welche ein Schwellenüberschreitungssignal erzeugt hat, in dem Azimutspeichermedium 208 bzw. ebenso in dem Kanalnummerspeichermedium 210 gespeichert.
  • Der Betrieb des Algorithmus 78 für die anpaßbare Schwelle wird unter Bezugnahme auf Fig. 11 dargestellt. In Fig. 11(a) wird eine Hintergrundeingabe gezeigt, welche einen typischerweise bzw. vorherrschend niederfrequenten Inhalt aufweist. In Fig. 11(b) ist der Zieleingang gezeigt, welcher einen relativ kleinen niederfrequenten Inhalt aufweist. Die Reaktion des Schutzfilters 150 ist in Fig. 11(c) gezeigt, welche ebenso die Voreinstellung der Störfleckenanpassungsschwelle zeigt. Die Amplitude als Reaktion auf den Schutzfilter 150 ist größer für die Hintergrundeingabe aufgrund der Tatsache, daß die Hintergrundeingabe vorherrschend ein ausgeprägter niederfrequenter Inhalt aufweist. Das gesamte anpaßbare Schwellenniveau ist in Fig. 11(d) gezeigt, welches den anpaßbaren Abschnitt des Schwellenniveaus zusammen mit dem festen Schwellenniveau darstellt.
  • Der Ausgang von dem Zielfilter 148 ist in Fig. 11(e) als Reaktion der Zieleingabe, welche in Fig. 11(b) gezeigt ist, gezeigt, zusammen mit der überlager ten adaptiven Schwellenniveau. Wie gezeigt ist, ist, falls der Hintergrundeingang hoch ist, das gesamte adaptive Schwellenniveau ebenso hoch, wodurch der Algorithmus 78 für die anpaßbare Schwelle davon abzuhalten wird, ein Schwellenüberschreitungssignal zu erzeugen. Allerdings, wenn der Zieleingang hoch ist, ist der Ausgang von dem Zielfilter 148 größer als die gesamte anpaßbare Schwellenhöhe. Dementsprechend erzeugt der Algorithmus 78 für die anpaßbare Schwelle ein Schwellenüberschreitungssignal, wie in Fig. 11(f) gezeigt ist.
  • 1.2 Algorithmus für eine Störfleckenanpassungsschwelle
  • Um ein Mittel zur Begrenzung der Anzahl von Observationen, die von dem Datenprozessor 76 verarbeitet werden, bereitzustellen, ist ein Algorithmus 80 für eine Störfleckenanpassungsschwelle vorgesehen. Der Algorithmus 80 für eine Störfleckenanpassungsschwelle steuert bzw. regelt die Schwelle in Bereichen einer hohen Hintergrundsobservationsdichte oder Störflecken. Wie vollständiger unten erläutert wird, überprüft der Algorithmus für die Störfleckanpassungsschwelle jede Blickfeldregion des Bedarfsfeldes hinsichtlich übersteigenden Rauschens von Schwellenüberschreitungen in einem Initialisierungsmodus. Die Schwellen werden dann während des Betriebes rekursiv als Reaktion auf die mittlere Observationsamplitude und Anzahl der Schwellenüberschreitungen modifiziert. Wenn ein besonderer Bereich des Blickfeldes eine signifikante Änderung in der Anzahl der Schwellenüberschreitungen aufweist, wird die Schwelle in diesem Bereich langsam um ein signifikantes Schwelleninkrement (zumindest ein signifikantes Bit) pro Abtastung in diesem Bereich geändert. In diesen Bereichen des Blickfeldes, in denen keine signifikanten Änderungen in der Anzahl der Schwellenüberschreitungen vorkommen, wird die Schwelle auf einen Nominalwert (nahezu vier letzten signifikanten Bits) beibehalten.
  • Der Algorithmus für die Störfleckenanpassungsschwelle wird nun vollständiger unter Bezugnahme auf Fig. 12 beschrieben. Die Verarbeitung beginnt mit Schritt 212, wenn der Algorithmus 80 der Störfleckenanpassungsschwelle in dem Initialisierungsmodus ist. Beim Schritt 212 werden Daten für jeden Streifen bzw. Abtastlinie des Blickfeldes, wobei jeder bzw. jede in eine endliche Anzahl von Sektoren unterteilt ist, und wobei jede gewöhnlicherweise äquivalent zu dem FLIR-Blickfeld ist, von dem Signalprozessor 74 aufgenommen bzw. empfangen. Der Algorithmus 80 der Störfleckenanpassungsschwelle bestimmt bei Schritt 214, ob die Daten, welche von dem Algorithmus 80 für das Störfleckenanpassungsschwelle empfangen wurden, der erste Dateneintrag ist, der den ersten Streifen des FLIR-Blickfeldes repräsentiert bzw. darstellt. Falls die ersten aufgenommenen Daten dem ersten Dateneintrag entsprechen, führt der Algorithmus 80 der Störfleckenanpassungsschwelle einen Schritt 216 aus, in dem die Schwellen für alle Sektoren jedes Streifens auf einen Minimalwert (vier letzten signifikanten Bits) gesetzt werden. Nach Ausführung des Schritts 216 führt der Algorithmus 80 der Störfleckenanpassungsschwelle den Schritt 218 durch, bei dem der Wert der Variablen NS gleich der Anzahl der Abtastungen gesetzt wird, welche gemittelt werden, um die mittlere Observationsamplitude zu bestimmen. Nach Ausführung des Schritts 218 oder, falls beim Schritt 214 der Algorithmus 80 der Störfleckenanpassungsschwelle festgestellt hat, daß die momentan berücksichtigte Abtastlinie oder Streifen nicht der erste Streifen oder Eintrag ist, führt der Algorithmus 80 der Störfleckanpassungsschwelle den Schritt 220 aus. Beim Schritt 220 berechnet der Algorithmus 80 der Störfleckenanpassungsschwelle eine neue mittlere Amplitude und die Anzahl der Schwellenüberschreitungen, welche auf den laufenden bzw. vorangehenden Abtastungen der Streifen für jeden FLIR-Blickfeldsektor basiert. Der Algorithmus 80 der Störfleckenanpassungsschwelle führt dann Schritt 222 aus, bei dem der Algorithmus 80 der Störfleckenanpassungsschwelle festlegt, ob die Anzahl der Abtastungen, welche bei der Bestimmung der mittleren Observationsamplitude verwendet worden sind, kleiner oder gleich der Variable NS (d. h., der gewünschten Anzahl der Abtastungen) ist. Falls die Anzahl der Abtastungen, welche zur Bestimmung der mittleren Observationsamplitude verwendet wurde, gleich dem Wert von NS ist, führt der Algorithmus 80 der Störfleckenanpassungsschwelle den Schritt 224 aus, bei dem ein Datensatz von einem neuen Streifen von dem Signalprozessor 74 erhalten wird, bevor Schritt 212 ausgeführt wird.
  • Falls beim Schritt 222 der Algorithmus 80 der Störfleckenanpassungsschwelle feststellt, daß die Anzahl der Abtastungen, welche zur Bestimmung der mittleren Observationsamplitude verwendet wurden, gleich der Variablen NS ist, dann führt der Algorithmus 80 der Störfleckenanpassungsschwelle den Schritt 226 aus. Beim Schritt 226 bestimmt der Algorithmus 80 der Störfleckenanpassungsschwelle, ob das gesamte Abtastmuster initialisiert wurde. Falls das gesamte Abtastmuster nicht initialisiert wurde, führt der Algorithmus 80 der Störfleckenanpassungsschwelle den Schritt 224 aus. Falls das gesamte Abtastmuster initialisiert wurde, führt der Algorithmus 80 der Störfleckenanpassungsschwelle den Schritt 228 aus. Beim Schritt 228 identifiziert der Algorithmus 80 der Störfleckenanpassungsschwelle diejenigen Sektoren jedes Streifens, bei denen die Anzahl der Schwellenüberschreitungen größer als der Wert von N war, welcher die Maximalanzahl der Observationen ist, welche der Prozessor behandeln kann. Der Algorithmus 80 der Störfleckenanpassungsschwelle setzt die Schwellen jedes Sektors, dessen Anzahl der Schwellenüberschreitungen größer als N ist, gleich M multipliziert mit der Durchschnittsamplitude des Sektors. Der Wert von M ist normalerweise gleich eins, ist aber als Variable ausgewählt für die Initialisierungssteuerung.
  • Nach Ausführung des Schrittes 224 oder wenn der Algorithmus 80 der Störfleckenanpassungsschwelle während der normalen Verarbeitung (d. h., nach der Initialisierung) ausgeführt wird, führt der Algorithmus 80 der Störfleckanpassungsschwelle den Schritt 230 aus, welcher den Eintrittspunkt für eine Schleife 232 darstellt, welche rekursiv die Schritte 234-242 für jeden Sektor für den momentan betrachteten Streifen darstellt. Beim Schritt 234 werden die neuesten Daten für den momentan betrachteten Sektor verwendet, um die neuen mittleren Observationsamplituden des Sektors zu kalkulieren und ebenso die Anzahl der Schwellenüberschreitungen. Nach Ausführung des Schritts 234 führt der Algorithmus 80 der Störfleckenanpassungsschwelle den Schritt 236 aus. Beim Schritt 236 stellt der Algorithmus 80 der Störfleckenanpassungsschwelle fest, ob die Durchschnittsanzahl der Schwellüberschreitungen größer als das erwünschte Band bzw. Anzahl der Schwellenüberschreitungen, kleiner als das erwünschte Band der Schwellenüberschreitungen oder innerhalb des erwünschten Bandes der Schwellenüberschreitungen ist. Das erwünschte Band der Schwellenüberschreitungen wird ausgewählt, um die optimale Anzahl der Observationen, welche verarbeitet werden, beizubehalten. Falls der Algorithmus 80 der Störfleckanpassungsschwelle feststellt, daß die Durchschnittsanzahl der Schwellenüberschreitungen oberhalb des erwünschten Bandes der Schwellenüberschreitungen ist, führt der Algorithmus 80 der Störfleckenanpassungsschwelle den Schritt 238 aus, welcher die Schwelle um zumindest einem am wenigsten wichtigen bzw. signifikanten Bit erhöht. Die Schleife 232 verursacht dann, daß die Daten von dem nächsten Sektor des Streifens berechnet werden, indem Schritt 244 ausgeführt wird.
  • Falls die Durchschnittsanzahl der Schwellenüberschreitungen geringer als das erwünschte Band ist, führt der Algorithmus 80 der Störfleckenanpassungsschwelle den Schritt 240 aus, welcher bestimmt, ob der Benutzer ein Schwellenminimalniveau festgelegt hat. Falls der Benutzer eine Schwellenminimalniveau nicht gesetzt hat, dann führt der Algorithmus 80 der Störfleckenanpassungsschwelle den Schritt 242 aus, welcher die Schwelle um zumindest einem signifikanten bzw. am wenigsten wichtigen Bit reduziert. Nach Ausführen des Schritts 242 oder falls das Schwellenminimalniveau beim Schritt 240 gesetzt wurde, verursacht die Schleife 232, daß die Daten des nächsten Sektors des Streifens berechnet werden können, indem Schritt 244 ausgeführt wird. Nachdem alle Sektoren in dem Streifen von der Schleife 232 berechnet wurden, verläßt der Algorithmus 80 der Störfleckenanpassungsschwelle die Schleife 232 über den Schritt 244.
  • Um das Verständnis des Algorithmus 80 für das Störfleckenanpassungsschwelle und ebenso des Algorithmus 78 der adaptiven Schwelle zu erleichtern, wird das folgende Beispiel unter Bezugnahme auf Fig. 13 vorgestellt. Ein idealisiertes Modell der Ausgangsspannung eines Vorverstärkers, welcher den Ausgang von einem Detektorelement empfängt, da das Detektorelement über eine infrarote Punktquelle abgetastet wurde, wird gegeben als
  • vvorverstärkt = sin² (µt/2TD),
  • wobei:
  • vvorverstärkt = Ausgangsspannung des Vorverstärkers
  • t = Zeit
  • TD = Verweilzeit des Detektors
  • Die Pulsform der Ausgangsspannung des Vorverstärkers, wenn der Detektor eine vergrößerte Infrarotquelle abtastet, ist in Fig. 13(a) gezeigt, wobei der Anstieg und Abfall des Signalpulses verwendet wird, um die Pulsbreite zu bestimmen, an der vergrößerte Quellen zurückgewiesen werden. Ein Doppelpuls, welcher verwendet wird, um entweder einen blauen Himmelfleck (Loch) in einer Wolke oder ein Ziel, welches einer Quelle folgt, zu simulieren, ist in Fig. 13(b) gezeigt. Ein zusammengesetzter Puls, welcher verwendet wird, um das Ziel- plus-Hintergrund-zu-Hintergrund-Bestrahlungsverhältnis ((1 + A)/1) zu bestimmen, welches notwendig ist, um ein Ziel gegenüber einem Hintergrund zu detektieren, ist in Fig. 13(c) gezeigt.
  • Die Reaktion von dem Zielfilter 148 und des Schutzfilters 150 ist in Fig. 14 dargestellt, wenn der Ausgang von dem Vorverstärker dem folgt, was in Fig. 13(a) gezeigt ist. Die abgeflachte Pulsbreite w&sub1;, mit der vergrößerte Ziele aussortiert werden, ist nahezu 135 µs (0,85 mrad), so daß der Ausgang des Zielfilters (gestrichelte Linien) den Ausgang des Schutzfilters (durchgezogene Linien) für Punktquelleneingänge (w&sub1; = 0) und etwas vergrößerte Eingänge (w&sub1; = 50) überschreitet. Dementsprechend wird der Eingang, der in Fig. 13(a) gezeigt wird, ein Schwellenüberschreitungssignal erzeugen. Gute Hintergrundsdiskriminierung wird erreicht, indem räumliche Objekte aussortiert werden, die sich größer als ungefähr 1 mrad erstrecken, und eine bessere Pulsbreitenhintergrunddiskriminierung wird erreicht durch eine kleinere wi-Breite. Typische Werte von W&sub1; beim Kreuzungspunkt (d. h., wenn der Ausgang des Zielfilters 148 und des Schutzfilters 150 gleich sind) sind in Fig. 15 als Funktion einer Zielverzögerung und eines Schutzfilterverstärkungsfaktors gegeben.
  • Die Reaktion des Zielfilters 148 und des Schutzfilters 150, wenn der Ausgang des Vorverstärkers ein wie in Fig. 13(b) gezeigter Doppelpuls ist, ist in Fig. 16 gezeigt. Die in Fig. 13(b) gezeigten Reaktionen stellen einen lange Wolkenbereich (w&sub1;), gefolgt von einem blauen Himmelfleck (w&sub2;), gefolgt von einem kurzen (w3) Wolkenbereich dar. Wie in Fig. 16 gezeigt, überschreitet der Ausgang des Schutzfilters 150 jeweils den Ausgang des Zielfilters 148, so daß keine Falschalarme erzeugt werden. Falls die Breite w3 lediglich ein Zehntel so lang ist, stellt die Breite ein Ziel dar, und es ist ersichtlich, daß eine Schwellenüberschreitung erzeugt wird. Das Klemmverhalten des Schutzfilters 150 ist derart, daß keine Größe des Wolkenloches einen Falschalarm für jeden der Schutzverstärkungsfaktoren und Verzögerungskombinationen, die vorangängig aufgelistet sind, erzeugt.
  • Der zusammengesetzte in Fig. 13(c) gezeigte Puls wird verwendet, um die Fähigkeit der Zieldetektion zu demonstrieren, die in einem Hintergrund eingebettet ist. Eine besondere Reaktion bzw. Ansprechverhalten für w&sub1; = 1600 µs, T&sub0; = 400 µs und T&sub1; = 20 µs, ist in Fig. 17 gezeigt. Falls der Ausgang des Zielfilters 148 den Ausgang des Schutzfilters 150 überschreitet, wird ein Schwellenüberschreitungssignal erzeugt. Falls T&sub0; von zu größer als 2000 µs variiert, kann die Amplitude, welche für den Nachweis einer typischen Zielgröße (T&sub0; = µs oder 0,125 mrad) erforderlich ist, bestimmt werden und ein normalisiertes Nachweisverhältnis (T + B)/B kann festgestellt werden, wobei T die Zielamplitude ist und B die Hintergrundsamplitude ist. Dieses Verhältnis ist als Funktion der Zeit in Fig. 18 geplottet. Das Verhältnis ist nahezu größer als 2,2 der führenden bzw. nachfolgenden. Kante und kehrt schnell auf eins (volle Sensitivität) in lediglich 1200 µs (7,5 mrad) zurück.
  • Ein Beispiel eines Algorithmus für die anpaßbare Schwelle, welcher reelle Hintergrundsbedingungen verwendet, ist in Fig. 19(a) gezeigt. In diesem Beispiel stellt T den Ausgang des Zielfilters 148, G den Ausgang des Schutzfilters 150, TM eine normale Schwelleneinstellung, welche verwendet wird, um geringe Falschalarmraten für "blauen Himmel"-Bedingungen festzulegen, und TN ein festes Schwellenniveau der Störfleckenanpassungsschwelle dar. Die Eingänge zu dem Zielfilter 148 und dem Schutzfilter 115 wurden von reellen "hell unterbrochenen Wolke"-Daten, welche aufgezeichnet sind, von dem Ausgang eines experimentellen 80-deg/sec-Abtastratensystem genommen. Ein analoges anpaßbares Schwellensystem der in Fig. 19 gezeigten Art wurde zeitmäßig erfaßt, um die Abtastrate einzustellen, und verwendet, um die gezeigten Ausgänge zu produzieren. Stimulierte Zielsignale wurden zu den in Fig. 17(a) gezeigten Ausgängen addiert, um Fig. 19(b) zu erhalten. Selbst über einen begrenzten Beobachtungswinkel, der in Fig. 19(a) gezeigt ist, wurde eine große Anzahl von Falschalarmen aufgrund des Hintergrundes produziert, wenn die anpaßbare Schwellenanpassung nicht eingesetzt bzw. verwendet wurde und die Schwelleneinstellung gleich TN ist. Das TN-Niveau, welches erforderlich ist, um diese Falschalarme ohne die anpaßbare Schwellenanpassung zu entfernen, ist verständlicherweise größer als TM und trifft die Zieldetektionsfähigkeit.
  • Der Ausgang des Schutzfilters 150 überschreitet kaum TM, wodurch eine verbesserte Zielnachweisfähigkeit ersichtlich wird. Diese Fähigkeit ist in Fig. 19(b) gezeigt, wo Ziele mit lediglich doppelter Amplitude, die erforderlich ist, um eine Schwellenüberschreitung zu produzieren, injiziert wurden. Die Zielsignale sind klar sichtbar im T-Ausgang in der blauen Himmelregion auf der rechten Seite in Fig. 19(b), wobei sie virtuell nicht unterscheidbar in dem Hintergrund sind. Die Anwendung der anpaßbaren Schwellentechnik ist in den Schwellenüberschreitungsausgängen (D-Ausgang in Fig. 19(b)) gezeigt, wo alle bis auf eine der Zieleingänge detektiert wurden ohne dem Vorhandensein von Falschalarmausgängen.
  • 1.3 Algorithmus für den Spitzennachweis
  • Um ein Mittel zur Kompensation von Mehrfach-Überschreitungen der anpaßbaren Schwelle von dem gleichen Ziel zur Verfügung zu stellen, ist der Algorithmus 82 für den Spitzennachweis vorgesehen. Der Algorithmus 82 für den Spitzennachweis, der von dem Signalprozessor 74 durchgeführt wird, wird verwendet, um Mehrfachschwellenüberschreitungen von dem gleichen Ziel aufgrund von Zielabbildungen, die über die Mehrfachaufnahmen hinausgehen, zu kompensieren. Der Algorithmus 82 zum Spitzennachweis sichert den "Maximalamplituden"-Spitzenausgang von dem Algorithmus 80 der Störfleckanpassungsschwelle, sobald eine Observation die angepaßte Schwelle, ebenso auch die Schwelle der Störfleckanpassung, überschreitet. Jede nachfolgende Observation, welche ebenso die adaptive Schwelle und das Störfleckenverzeichniss überschreitet, wird auch von dem Algorithmus des Spitzennachweises überprüft.
  • Wenn eine nachfolgende Observation unterhalb entweder der anpaßbaren Schwelle oder der Schwelle der Störfleckanpassung fällt, leitet der Algorithmus 82 des Spitzennachweises die Observation der größten Amplitude von der vorangehenden fortlaufenden Sequenz der Observationen an den Datenprozessor 76 weiter.
  • 2. Datenprozessoralgorithmus 2.1 Algorithmus der Vidicongeisterbilder-Logik
  • Häufig, wenn die vorliegende Erfindung angewendet wird, erscheinen unter Verwendung von Vidicon-zielorientierten FLIR-Einheiten ein "Geist" bzw. Schatten oder falsche Ziele auf dem Vidicon aufgrund von Phosphoreszenzen. Dieser Schatten wird aufgrund der Verschiebung bzw. Versetzung des verschachtelten Abtastfeldes während des kardanischen Abtastvorgangs verursacht, welcher von der zielorientierten FLIR-Einheit 12 verwendet wird. Um ein Mittel zur Vermeidung von Schatten bereitzustellen, ist ein Algorithmus 92 für eine Vidicongeisterbilder-Logik vorgesehen. Der Algorithmus 92 für eine Vidicongeisterbilder-Logik ist in Fig. 20 dargestellt und wird genau im Detail beschrieben.
  • Beim Schritt 244 wird der Algorithmus 92 für eine Vidicongeisterbilder-Logik mit der Variable N initiiert, welche gleich der Variable N der laufenden Observationen in dem zu betrachteten Feld i ist. Nach Ausführung des Schritts 224 führt der logische Algorithmus 92 für Vidiconschattten den Schritt 246 aus, welcher eine Schleife startet, welche beendet ist, wenn die Schleife eine Anzahl von Malen ausgeführt wird, bis sie gleich der Anzahl der vorangehenden Felder ist, für die Schatten festgestellt worden sind. Im allgemeinen kann gesagt werden, daß es wünschenswert ist, ein oder zwei Fenster bzw. Referenzen in Abhängikgkeit von der Vidiconphosphoreszenzabklingzeit zurückzugehen. Nach Ausführen des Schritts 246 führt der Algorithmus 92 für eine Vidicongeisterbilder-Logik den Schritt 284 aus, welcher verwendet wird, um einen Kompressionsfaktor zu berechnen. Der Kompressionsfaktor wird verwendet, um die Daten, welche im Feld i erscheinen, an die Daten, welche in den vorangehenden Feldern (Feld L) erscheinen, anzupassen. In Abhängigkeit davon, ob ein Abtastspiegel oder ein Abtastrad in der zielorientierten FLIR-Einheit 12 verwendet wird, können die nachfolgenden Gleichungen verwendet werden, um den Kompressionsfaktor zu berechnen:
  • für Abtastspiegel:
  • falls zwei Felder (L=i-2) zurückschreitend:
  • setze S=1
  • falls ein Feld (L=i=1) zurückschreitend:
  • D = Å /F
  • falls Feld i-Abtastung in Richtung der Azimutschüssel ist:
  • S=(FOV-D)/(FOV+D)
  • falls Feld i-Abtastung ist gegen die Azimutschüssel:
  • S=(FOV+D)/FOV-D) D(FOV
  • für Abtastrad: setze S = 1,
  • wobei: Å = Azimutschüsselrate (Grad/Sekunde)
  • F = Feldrate (in Hertz)
  • FOV = FLIR Azimut FOV (Grad)
  • Nach Ausführen der Schritte 248 führt der Algorithmus 92 für eine Vidicongeisterbilder-Logik den Schritt 250 aus, welcher eine Schleife startet, welche reiterativ für jede Beobachtung in dem vorgegebenen Feld arbeitet. Nach Ausführung des Schritts 250 führt der Algorithmus 92 für eine Vidicongeisterbilder-Logik den Schritt 252 aus, welcher den vorhergesagten Azimut der Observation berechnet, falls die Observation ein Schatten eines anderen Feldes war. Um den vorhergesagten Azimut der Observation zu berechnen, falls die Observation ein Schatten eines vorhergehenden Feldes in Schritt 252 war, wird folgende Gleichung angewendet:
  • Ag = S * (Aj-As) + A
  • wobei: Aj = Azimut der Observation j
  • As = Startazimut des Feldes i (laufendes Feld)
  • A&sub1; = Startazimut des Feldes L (rückgeschrittenes Feld)
  • Nach Ausführen des Schrittes 252 führt der Algorithmus 92 für eine Vidicongeisterbilder-Logik den Schritt 254 aus, welcher eine bestimmte Anzahl gleich der Anzahl der Observation in dem Feld i citerativ ausführt ist. Nach Ausführen des Schritts 254 führt der Algorithmus 92 für eine Vidicongeisterbilder-Logik den Schritt 256 aus, welcher bestimmt, ob die vorhergesagte Observation J in einem Gatter über der Observation K ist. Falls die Observation J in dem gleichen Gatter wie die Observation K ist, dann kann sie von der gleichen Observation sein. Dementsprechend wird die Observation mit der größten Amplitude ausgewählt. Um Schritt 256 auszuführen, berechnet der Algorithmus 92 für eine Vidicongeisterbilder-Logik die folgenden Gleichungen:
  • DE = Ak - Ag
  • DE = Ek - Ej
  • Observation ist im Gatter, falls:
  • DA &le; GA
  • DE &le; GE
  • wobei:
  • Ak = Azimut der Observation k (zurückgesetztes Feld)
  • Ek = Höhenlage der Observation k (zurückgesetztes Feld)
  • Ej = Höhenlage der Observation j (laufendes Feld)
  • Falls die vorhergesagte Observation nicht in einem Gatter oberhalb der Observation K, wie durch Schritt 256 bestimmt ist, liegt, führt der Algorithmus 92 für eine Vidicongeisterbilder-Logik den Rückschritt 258 aus, welcher den Algorithmus 92 für eine Vidicongeisterbilder-Logik veranlaßt, entweder Schritt 254 oder Schritt 260, welcher unten beschrieben ist, auszuführen, in Abhängigkeit davon, ob alle Observationen in Feld L unter Berücksichtigung des Schritts 256 berechnet wurden. Falls beim Schritt 256 die vorhergesagte Observation innerhalb des Gatters, welches die Observation K umgibt, ist, dann führt der Algorithmus 92 für eine Vidicongeisterbilder-Logik den Schritt 262 aus. Beim Schritt 262 bestimmt der Algorithmus 92 für eine Vidicongeisterbilder-Logik, ob die Amplitude der Observation J kleiner als die Observation K ist. Während der Durchführung des Schritts 262 berechnet der Algorithmus 92 für eine Vidicongeisterbilder-Logik die folgende Gleichung:
  • falls AMPk-AMPj > AMPt*AMPk nimm an L ist ein Schatten, wobei:
  • AMPk = Amplitude der zurückgesetzten Feldobservation
  • AMPk = Amplitude der laufenden Feldobservation
  • AMPt = Amplitudenbruchteil
  • Falls beim Schritt 262 die Amplitude der Observation J nicht kleiner als die Observation K ist, führt der Algorithmus 92 für eine Vidicongeisterbilder-Logik den Schritt 258 aus, der den Algorithmus 92 für eine Vidicongeisterbilder-Logik veranlaßt, entweder Schritt 254 oder Schritt 260 wie oben beschrieben auszuführen. Falls beim Schritt 262 der Algorithmus 92 für eine Vidicongeisterbilder-Logik bestimmt, daß die Höhenangabe der Observation J geringer ist als die Observation K, führt der Algorithmus 92 für eine Vidicongeisterbilder- Logik Schritt 264 aus, welcher die Observation J gleich einer Geisterbilderobservation setzt bzw. betrachtet und die Schleife bei K verläßt. Nach Ausführen des Schritts 264 oder nach Beendigung der Schleife K, wie durch Schritt 258 bestimmt ist, führt der Algorithmus 92 für eine Vidicongeisterbilder-Logik den Schritt 260 aus, welcher entweder zur Bearbeitung des Schritts 250 oder des Schritts 260 zurückkehrt, falls alle Observationen in dem Feld bearbeitet wurden. Nachdem alle Felder in der Rückschau auf Schatten überprüft wurden, führt der Algorithmus 92 für eine Vidicongeisterbilder- Logik den Schritt 268 aus, welcher alle Nicht-Schatten zu dem TWS-Observationspuffer 96 sendet.
  • 2.2 Algorithmus für eine FLIR-Überabtastung-Logik
  • Während des Betriebes der Vorrichtung 10 kann ein einzelnes Ziel in Mehrfach-Observationen aufgrund von Überabtastung vorhergehender Fenster resultieren. Um eine Einheit zur Eliminierung derartiger Observationen, welche von einer Überabtastung herrühren, bereitzustellen, ist ein Algorithmus 94 für die FLIR-Überabtastung- Logik vorgesehen. Der Algorithmus 94 für die FLIR-Überabtastung-Logik wird verwendet, um ein Gatter um eine laufende Observation zu kreieren. Nachdem das Gatter gebildet ist, legt der Algorithmus 94 für die FLIR- Überabtastung-Logik fest, welche vorherigen Observationen innerhalb des Gatters fallen und löscht derartige Observationen aus seiner Betrachtung. Der der Algorithmus 94 für die FLIR-Überabtastung-Logik wird nun unter Bezugnahme auf Fig. 21 beschrieben.
  • Der erste Schritt des der Algorithmus 94 für die FLIR-Überabtastung-Logik ist Schritt 270, bei dem der Signalprozessor 94 die Anzahl der Fenster- bzw. Referenzobservationen liefert. Nach Ausführen des Schrittes 270 des der Algorithmus 94 für die FLIR-Überabtastung- Logik wird der Schritt 272 ausgeführt, welcher eine sich wiederholende Schleife entsprechend der Anzahl der Fensterobservationen initiiert. Nach Ausführen des Schritts 272 führt der der Algorithmus 94 für die FLIR- Überabtastung-Logik den Schritt 274 aus, der die Observation von allen früheren Fenstern miteinander korreliert, welche mit der laufenden Observation überabgetastet sein könnten. Die Anzahl derartiger Fenster M ist gewöhnlich 3 und ist eine Funktion des FLIR-Blickfeldes und der kardanischen Abtastrate. Diese Korrelation wird unter Verwendung der folgenden Algorithmen durchgeführt:
  • Falls Ai-Aj &le; GA und
  • EI-Ej &le; GE
  • dann sind die Observationen i und j korreliert.
  • Die Genauigkeit wird gemessen durch:
  • Dij = [( Ai - Aj)² + (Ei-Ej)²]
  • wobei: Ai = Azimut der Observation i
  • Aj = Höhenlage der Observation i
  • Ei = Azimut der Observation j
  • Ej = Höhenlage der Observation j
  • GA = Azimutkorrelationsgatter
  • GE = Höhenlagekorrelationsgatter
  • Dij = Distanzmaß
  • Nach Ausführen des Schritts 274 führt der Algorithmus 94 für die FLIR-Überabtastung-Logik den Schritt 276 aus, welcher eine Schleife für jede korrelierte Observation, welche durch den Schritt 274 bestimmt wurde, injiziert. Nach Ausführen des Schritts 276 führt der Algorithmus 94 für die FLIR-Überabtastung-Logik den Schritt 278 aus, welcher die Fenster- bzw. Referenznummerdifferenz zwischen der laufenden Observation und der korrelierten Observation berechnet. Es soll hervorgehoben werden, daß die Fensteranzahl der laufenden Observation immer größer sein wird als die Fensternummer der vorhergehenden Observation. Nach Ausführen des Schritts 278 führt der Algorithmus 94 für die FLIR-Überabtastung-Logik den Schritt 280 durch, welcher festlegt, ob die Fensternummerdifferenz zwischen der laufenden Observation und den korrelierten Observationen gleich null ist. Falls die Fensteranzahl der laufenden Observation gleich der Fensteranzahl der korrelierten Observation ist, führt der Algorithmus 94 für die FLIR-Überabtastung-Logik den Schritt 282 aus, welcher die möglichen früheren Observationen aus der Korrelationsliste löscht, welche die laufende Observation betrifft, welche in Schritt 274 erzeugt wurde (d. h., wird nicht erlaubt, gelöscht zu werden). Falls beim Schritt 280 die Fensteranzahldifferenz zwischen der laufenden Observation und der früheren Observation nicht gleich null ist, führt der Algorithmus 94 für die FLIR-Überabtastung-Logik den Schritt 284 aus.
  • Beim Schritt 284 stellt der Algorithmus 94 für die FLIR-Überabtastung-Logik fest, ob die Fensternummerdifferenz größer als die Nummer der vorhergehenden möglichen überabgetasteten Fenster (M) ist. Falls die Fensternummerdifferenz größer als M ist, führt der Algorithmus 94 für die FLIR-Überabtastung-Logik den Schritt 282 aus, welcher die möglichen früheren Observationen von der Korrelationsliste streicht, die die laufenden Observationen, welche im Schritt 274 erzeugt wurden, betreffen. Falls beim Schritt 284 der Algorithmus 94 für die FLIR-Überabtastung-Logik feststellt, daß die Fensternummerdifferenz kleiner als oder gleich M ist, führt der Algorithmus 94 für die FLIR-Überabtastung-Logik den Schritt 286 aus, welcher die Schleife beendet, welche beim Schritt 276 initiiert wurde. Nach Ausführen des Schritts 286 führt der Schritt 288 den logischen Algorithmus 94 aus, welcher die nächste Observation zu der laufenden Observation in jedem Fenster der Observationen in den Observationen der Korrelationsliste löscht. Nach Ausführen des Schritts 288 reiteriert der Algorithmus 94 für die FLIR-Überabtastung-Logik den Schritt 276 mittels des Schritts 290, bis die Anzahl der laufenden Fensterobservationen erreicht wurde.
  • 2.3 Schwellensteuerungsalgorithmus
  • Der Schwellensteuerungsalgorithmus 110 wird verwendet, um jede nicht-gepackte (d. h., Nicht-Schatten) Schwelle, welche von dem Algorithmus 80 der Störfleckanpassungsschwelle erhalten wird, zu modifizieren, um die laufenden Datenverarbeitungsresourcen wiederzugeben. Der Schwellensteuerungsalgorithmus 110 erhöht entweder die Schwelle, welche von dem Algorithmus 80 der Störfleckanpassungsschwelle erzeugt wurde oder vermindert die Schwelle um zumindest ein signifikantes Bit in Abhängigkeit von der zur Verfügung stehenden Verarbeitungszeit, die nach dem letzten Abtasten des laufenden Streifens, der verarbeitet wurde, verbleibt. Nachdem alle Schwellen berechnet wurden, werden sie an den Signalprozessor 74 zur Verwendung mit dem Algorithmus 80 der Störfleckenanpassungsschwelle gesendet.
  • Der Betrieb des Schwellensteuerungsalgorithmus 100 in Fig. 22 enthält den Schritt 292, welcher der Eintrittspunkt während der normalen Bearbeitung ist. Von dem Schritt 292 ausgehend führt der Schwellensteuerungsalgorithmus 110 den Schritt 294 aus, welcher die Anzahl der neuen von der laufenden Anzahl der Spuren implizierten Observationen und die verbleibende Zeit aus dem letzten Computerverarbeitungszyklus - wie unten erläutert - berechnet. Nach Ausführen des Schritts 294 führt der Schwellensteuerungsalgorithmus 110 den Schritt 296 aus, welcher festlegt, ob die Anzahl der neuen Observationen in dem erwünschten Bereich ist, wie von der verbleibenden Zeit in dem Bearbeitungszyklus bestimmt ist. Falls die Anzahl der neuen Observationen innerhalb des erwünschten Bereiches ist, wird der Schwellensteuerungsalgorithmus 110 bei Schritt 298 beendet.
  • Falls die Anzahl der neuen Observationen, wie beim Schritt 296 festgelegt ist, nicht innerhalb des erwünschten Bereichsalgorithmus ist, führt der Schwellensteuerungsalgorithmus 110 die durch das Bezugszeichen 300 gekennzeichnete Schleife für jedes Blickfeld in dem zu betrachtenden Streifen aus. Der erste in der Schleife 300 ausgeführte Schritt ist Schritt 302, welcher festlegt, ob die Anzahl der neuen Observationen, die beim Schritt 294 berechnet wurden, entweder größer oder kleiner als die erwünschte Anzahl der Observationen ist. Falls die Anzahl der neuen Observationen größer als die Anzahl der erwünschten Observationen ist, führt der Schwellensteuerungsalgorithmus 110 den Schritt 304 aus, welcher festlegt, ob die Schwelle gleich der Minimalschwelle ist. Falls die Schwelle gleich der Minimalschwelle ist, führt der Schwellensteuerungsalgorithmus 110 entweder den Schritt 302 für das nächste FLIR Blickfeld aus oder führt den Schritt 306 aus, falls die Schleife 300 für jedes FLIR-Blickfeld ausgeführt wurde. Beim Schritt 306 sendet der Schwellensteuerungsalgorithmus 110 alle Schwellen für jeden Sektor zu dem Signalprozessor 74, bevor der nächste Streifen abgetastet wird. Nach Ausführen des Schritts 306 wird der Schwellensteuerungsalgorithmus 110 über den Schritt 308 beendet.
  • Falls beim Schritt 304 der Schwellensteuerungsalgorithmus 110 feststellt, daß die Minimalschwelle nicht erreicht wurde, wird Schritt 310 ausgeführt, welcher die Schwelle um zumindest ein signifikantes Bit vermindert. Von dem Schritt 310 ausgehend führt der Schwellensteuerungsalgorithmus 110 entweder den Schritt 302 für das nächste FLIR-Blickfeld aus oder führt Schritt 306 aus, falls die Schleife 300 für jedes FLIR-Blickfeld ausgeführt wurde.
  • Falls beim Schritt 302 der Schwellensteuerungsalgorithmus 110 feststellt, daß die Anzahl der neuen Observationen, die beim Schritt 294 berechnet wurden, kleiner als die gewünschte Zahl der Observationen ist, führt der Schwellensteuerungsalgorithmus 110 den Schritt 312 aus. Beim Schritt 312 stellt der Schwellensteuerungsalgorithmus 110 fest, ob die Schwelle gleich der Maximalschwelle ist. Falls die Schwelle gleich der Maximalschwelle ist, führt der Schwellensteuerungsalgorithmus 110 entweder den Schritt 302 für das nächste FLIR-Blickfeld oder Schritt 306 aus, falls die Schleife 300 bezüglich jedes FLIR-Blickfeldes ausgeführt wurde.
  • Falls beim Schritt 312 der Schwellensteuerungsalgorithmus 110 feststellt, daß die Maximalschwelle nicht erreicht wurde, führt der Schwellensteuerungsalgorithmus 110 den Schritt 314 aus, welcher die Schwelle um zumindest ein signifikantes Bit erhöht. Nach Ausführen des Schritts 314 führt der Schwellensteuerungsalgorithmus 110 entweder den Schritt 302 für das nächste FLIR-Blickfeld aus oder führt den Schritt 306 aus, falls die Schleife 300 bezüglich jedes FLIR-Blickfeldes ausgeführt wurde.
  • Die erforderliche Bearbeitungszeit für einen Computerbearbeitungszyklus hängt nahezu mit der Anzahl der Spuren und Anzahl der neuen Observationen pro Zyklus über die folgende Gleichung zusammen:
  • T = A + B(NT) (NO)
  • wobei:
  • T = die gesamte Abtastbearbeitungszeit
  • A = konstante Überhangzeit
  • B = Systemkonstante
  • NT = Anzahl der Spuren
  • NO = Anzahl der neuen Observationen
  • Das Inverse des oben beschriebenen Ausdrucks wird verwendet, um die erwartete Anzahl der Observationen zu berechnen, welche zur Bearbeitung akzeptiert werden können, solange NO = (T - A)/NT.
  • Die Einschwingvorgänge in der Komplexität der iterativen Abtast-zu-Abtast-Korrelationsaufgaben werden aufgrund der aktuellen Fähigkeit um die Anzahl der erwarteten Observationen variieren. Diese Variationen werden von der Frequenz der Mehrfachobservations-Korrelationen und der Anzahl derartiger Observationen in einer Mehrfachkorrelation, welche gelöst werden muß, verursacht. Andere Variationen in der Ausführungszeit können wegen des Direktzugriffssteuerungs-Interrupts etc. vorkommen. Die Gesamtableitung des Observationsausdrucks bezüglich der Zeit impliziert, daß die Änderungen in den Observationen (&Delta;NO) bezüglich der Änderung der Zeit (&Delta;T) gleich &Delta;NO = &Delta;T/NT ist. Falls die Zeitdifferenz zwischen der erwünschten Verarbeitungszeit und der Zeit, welche nach der laufenden Abtastbearbeitung verbleibt, mit &Delta;T bezeichnet wird, dann ist eine Änderung in der laufenden Anzahl der Observationen nötig, um zu erreichen, daß die gewünschte Zeit durch die Berechnung der oben genannten Gleichung für &Delta;NO festgelegt bzw. angenommen werden kann. Die Gesamtzahl der Observationen, in denen es erwünscht ist, von einer Abtastung addiert oder subtrahiert zu werden, wird dann durch den FLIR-Blickfeldsektor verteilt, auf der Grund lage der Anzahl der Spuren in jedem Sektor. Jede Sektoramplitude wird durch einen sensorabhängigen Standardbetrag (d. h., zumindest ein signifikantes Bit) erhöht, falls weniger als die laufende Anzahl der Observationen erwünscht wird. Jede nicht kompakte bzw. nicht dichte Sektorschwelle wird in Abhängigkeit des Standardbetrages von einem Sensor vermindert, falls eine größere Anzahl der Observationen erwünscht wird.
  • 2.4 Spurenerfassungsalgorithmus
  • Der Verfolgungsvorgang enthält die Verwendung von drei Hauptalgorithmen: Assoziationsalgorithmus 100 für die Spuren, Filteralgorithmus 102 für die Spuren und Erfassungsalgorithmus 108 für die Spuren. Diese Algorithmen werden aufgrund der Informationen betrieben, welche in der Spurendatei enthalten sind, welche entweder als vorläufige Spuren, Ziel-(oder feste)-Spuren oder Störfleckenspuren klassifiziert sind. Vorläufige Spuren sind Spuren, die entweder keine ausreichende Anzahl (d. h., drei) von nachfolgenden Abtastobservationen aufweisen oder welche nicht eine ausreichende Anzahl der gesamtassoziierten Abtastungen enthalten, welche als Zielspuren betrachtet wurden. Störfleckenspuren sind frühere Zielspuren, welche als Störflecken aufgrund des Klassifikationsalgorithmus 100 für die Spuren klassifiziert wurden. Zielspuren werden vorerst bearbeitet, gefolgt von vorläufigen Spuren und Störfleckenspuren. Nachdem alle laufenden Spuren bearbeitet wurden, können neue Spuren aufgrund des Assoziationsalgorithmus 100 für die Spuren, welcher unten beschrieben wird, erzeugt werden. Dieser Vorgang ist nachgeschaltet, um zeitabhängig eine bedächtige bzw. anmutige Bearbeitungsabnahme zu ermöglichen, falls der Prozessor überlastet ist. Zwei Durchläufe durch den Erfassungsalgorithmus für die Spuren werden verwendet, wobei der zweite Durchlauf zyklus durch den korrelierten Observationsschritt in umgekehrter Reihenfolge zu dem ersten erfolgt.
  • Um ein Mittel zur Bildung von Spuren bereitzustellen, ist ein Erfassungsalgorithmus 108 für die Spuren vorgesehen. Der Erfassungsalgorithmus 108 für die Spuren wird nun detaillierter unter Bezugnahme auf Fig. 23 beschrieben. Der Erfassungsalgorithmus 108 für die Spuren wird verwendet, um vorläufige Spuren aufgrund der Assoziierung zweier nachfolgender Abtastobservationen zu bilden. Die Bearbeitung startet beim Schritt 316, wenn die mit dem Erfassungsalgorithmus für die Spuren zusammenhängende Bearbeitung beginnt. Der Schritt 318 wird dann ausgeführt, welcher die neue laufende Observation erhält. Falls beim Schritt 318 der Erfassungsalgorithmus 108 der Spuren feststellt, daß alle laufenden Observationen bearbeitet wurden, wird der Erfassungsalgorithmus 108 für die Spuren über den Ausgangsschritt 320 beendet. Falls weitere zu bearbeitende Observationen vorhanden sind, führt der Erfassungsalgorithmus 108 für die Spuren den Schritt 322 aus. Beim Schritt 322 stellt der Erfassungsalgorithmus 108 für die Spuren fest, ob überhaupt eine Korrelation zwischen der laufenden Observation und der vorangehenden Observation vorliegt. Die laufende Observation wird mit den vorhergehenden Observationen korreliert, wenn:
  • AO - AP &le; GA
  • und
  • EO - EP &le; GE
  • wobei:
  • GA = Azimut der Gatterbreite = CA ( + /1/2
  • GE = Höhenlage der Gatterbreite = CE ( + )1/2
  • CA = Azimut des Gattergrößenmultipliers
  • CE = Höhenlage des Gattergrößenmultipliers
  • = Maximalzielbewegungsabweichung im Azimut
  • = Maximalzielbewegungsabweichung in Höhenlage
  • = Azimutobservationsabweichung
  • = Höhenlageobservationsabweichung
  • AO = laufende Observation des Azimut
  • EO = laufende Observation der Höhenlage
  • AP = vorhergehende Observation des Azimut
  • EP = vorhergehende Observation der Höhenlage
  • Jede dieser Konstanten, die in der Berechnung der Erfassungsgatter verwendet werden, werden durch Simulation unterschiedlicher Zielbedingungen bestimmt.
  • Falls keine Korrelation zwischen der laufenden Observation und der vorhergehenden Observation vorliegt, führt der Erfassungsalgorithmus 108 für die Spuren den Schritt 318 aus, um die nächste Observation zu bearbeiten. Falls keine Korrelationen zwischen der laufenden Observation und der vorhergehenden Observation vorliegt, führt der Erfassungsalgorithmus 108 für die Spuren den Schritt 324 aus, welcher die nächstgelegene vorhergehende Observation auffindet, welche nicht betrachtet wurde. Um die nächstgelegene vorhergehende Observation, welche nicht betrachtet wurde, zu bestimmen, verwendet der Erfassungsalgorithmus 108 der Spuren einen nächsten Nachbar-Ansatz, in dem der Abstand zwischen den Observationen durch die folgende Gleichung bestimmt ist:
  • Falls keine der vorangehenden Observationen, welche nicht betrachtet wurden, vorhanden sind, führt der Erfassungsalgorithmus 108 den Schritt 318 aus, um die nächste Observation zu bearbeiten. Falls der Erfassungsalgorithmus 108 für die Spuren die nächstgelegene vorhergehende Observation, welche nicht betrachtet wurde, lokalisiert hat, führt der Erfassungsalgorithmus 108 für die Spuren den Schritt 326 aus. Beim Schritt 326 stellt der Erfassungsalgorithmus 108 für die Spuren fest, ob die nächstgelegene vorhergehende Observation, wie durch Schritt 324 festgestellt wurde, bereits mit einer bestimmten Spur assoziiert wurde. Falls die nächstgelegene vorhergehende Observation nicht mit einer bestimmten Spur assoziiert wurde, wie beim Schritt 326 festgestellt wurde, führt der Erfassungsalgorithmus 108 für die Spuren den Schritt 328 aus, welcher die nächstgelegene vorhergehende Observation mit der laufenden Observation assoziiert. Der Erfassungsalgorithmus 108 für die Spuren führt dann den Schritt 318 aus, bei dem die nächste laufende Observation verarbeitet wird.
  • Falls beim Schritt 326 der Erfassungsalgorithmus 180 für die Spuren feststellt, daß die nächstgelegene vorhergehende Observation, welche nicht berücksichtigt wurde, bereits assoziiert wurde, führt der Erfassungsalgorithmus 108 für die Spuren den Schritt 330 aus. Beim Schritt 330 stellt der Erfassungsalgorithmus 108 für die Spuren fest, ob die assoziierte Observation, welche näher an der laufenden Observation ist als die Observation, die mit der vorhergehenden Assoziation assoziiert wurde, ist. Falls die assoziierte Observation näher an der laufenden Observation als die vorhergehende Observation ist, führt der Erfassungsalgorithmus 108 für die Spuren dann den Schritt 324 aus. Falls beim Schritt 330 der Erfassungsalgorithmus 108 für die Spuren feststellt, daß die assoziierte Observation nicht näher an der laufenden Observation ist als die vorhergehende Observation, führt der Erfassungsalgorithmus 108 für die Spuren den Schritt 332 aus, welcher die vorhergehende Observation von der assoziierten Observation disassoziiert und assoziiert die laufende Observation mit der assoziierten Observation. Der Erfassungsalgorithmus 108 für die Spuren führt dann den Schritt 318 aus, bei dem die nächste Observation bearbeitet wird.
  • 2.5 Säurenassoziationsalgorithmus
  • Wie oben beschrieben, sind Zielspuren diejenigen, die drei oder mehr nachfolgende Observationen, welche assoziiert wurden, aufweisen. Um ein Mittel zur Zuordnung der Observationen zu festgelegten Spuren bereitzustellen, ist ein Spurenassoziationsalgorithmus 100 vorgesehen. Der Spurenassoziationsalgorithmus 100 wird verwendet, um neue Abtastungsobservationen zu festgelegten Spuren für Filterzwecke zuzuordnen. In Anwendung dessen gibt der Spurenassoziationsalgorithmus 100 den Vorzug auf Spuren, welche lediglich einer Observation zugeordnet wurden, wenn mehrere Assoziationen aufgelöst werden. Ferner reduziert bzw. vermindert der Spurenas soziationsalgorithmus 100 Falschalarme dadurch, daß Observationen der festgelegten Spuren von der Betrachtung als neue Ziele entfernt werden. Zusätzlich erhöht der Spurenassoziationsalgorithmus 100 das Erkennen von neuen und Somit nicht assoziierten Zielen.
  • Der Betrieb des Spurenassoziationsalgorithmus 100 wird nun unter Bezugnahme auf Fig. 24 beschrieben. Falls der Spurenassoziationsalgorithmus beim Schritt 334 eintritt, wird Schritt 336 ausgeführt, welcher die nächste zu bearbeitende Observation erhält. Falls alle Observationen bearbeitet wurden, wird der Spurenassoziationsalgorithmus beim Schritt 338 beendet. Falls weitere Observationen, welche noch nicht von dem Spurenassoziationsalgorithmus 100 bearbeitet wurden, vorliegen, führt der Spurenassoziationsalgorithmus 100 den Schritt 340 aus, welcher feststellt, ob überhaupt Korrelationen zwischen der Observation und der vorhergesagten Spur vorhanden sind. Eine Spur ist mit einer Observation korreliert, wenn die folgenden Gleichungen erfüllt sind:
  • AO - AP &le; GA
  • und
  • EO - EP &le; GE
  • und
  • IO - IP &le; GI
  • wobei
  • G&sub1; = CIAT
  • = Azimut, Höhenlage und Amplitude der Observation
  • und Amplitude der Spur
  • GA = Azimut der Gatterbreite
  • GE = Höhenlage der Gatterbreite
  • CI = Amplitudengatter des prozentualen Multipliers
  • G&sub1; = Amplitude der Gattergröße
  • CA = Azimut der Gattergrößenmultiplier
  • CE = Höhenlage des Gattergrößenmultipliers
  • = vorhergesagte Azimutspurenabweichung
  • = Azimutobservationsabweichung
  • = vorhergesagte Höhenlage-Spurenabweichung
  • = Höhenlage-Observationsabweichung
  • AT = laufende Zielamplitude
  • = &Lambda;PD = Cosinus-Vektor-Richtung der vorhergesagten Spur
  • = Abweichungen in Richtung der Cosinuskoordinaten der vorhergesagten Spur
  • = Abweichungen im Azimut und Höhenlage der vorhergesagten Spur
  • Falls die laufende Observation nicht mit einer bestehenden, wie durch Schritt 340 bestimmten Spur korreliert werden kann, führt der Spurenassoziationsalgorithmus 100 den Schritt 336 aus, bei dem die nächste Observation bearbeitet wird. Falls zumindest eine Korrelation zwischen der zu betrachtenden Observation und potentiellen, wie durch den Schritt 340 bestimmten Spuren vorhanden ist, führt der Spurenassoziationsalgorithmus 100 den Schritt 342 aus. Beim Schritt 342 stellt der Spurenassoziationsalgorithmus 100 fest, ob eine einzige Korrelation oder eine Mehrfach-Korrelation vorhanden ist. Falls eine einfache Korrelation vorhanden ist, führt der Spurenassoziationsalgorithmus 100 den Schritt 344 aus, der feststellt, ob die Spur, welche mit der laufenden Observation in Schritt 340 korreliert wurde, mit einer anderen Spur assoziiert wurde. Falls die Spur, welche mit der laufenden Observation korreliert wurde, nicht assoziiert wurde, führt der Spurenassoziationsalgorithmus 100 den Schritt 346 aus, welcher die laufende Observation mit der Spur, mit der sie korreliert wird, assoziiert. Der Spurenassoziationsalgorithmus 100 führt dann den Schritt 336 aus, bei dem eine neue Observation bearbeitet wird.
  • Falls beim Schritt 344 der Spurenassoziationsalgorithmus 100 feststellt, daß die Spur, welche der mit Observation korreliert wurde, bereits assoziiert wurde, führt der Spurenassoziationsalgorithmus 100 den Schritt 348 aus, welcher feststellt, ob die vorherige Observation, welche bereits assoziiert wurde, mit der Spur korreliert wurde, welche bereits mit anderen Observationen korreliert wurde. Falls die vorhergehende Observation nicht einfach korreliert ist, führt der Spurenassoziationsalgorithmus 100 den Schritt 350 aus, welcher die vorhergehenden Observationen von der Spur disassoziiert, und assoziiert die laufende Observation mit der Spur. Der Spurenassoziationsalgorithmus bearbeitet dann die nächste Observation über den Schritt 336.
  • Falls beim Schritt 348 der Spurenassoziationsalgorithmus 100 feststellt, daß die vorherige Observation, welche mit der Spur assoziiert ist, einfach korreliert ist, führt der Spurenassoziationsalgorithmus 100 den Schritt 352 aus. Beim Schritt 352 stellt der Spurenassoziationsalgorithmus 100 fest, ob die vorherige Observation näher an der assoziierten Spur liegt als die laufende Observation. Das Abstandsmaß zur Verwendung von dem Spurenassoziationsalgorithmus 100, um die nächstgelegene Observation festzustellen, ist:
  • Alle Konstanten, die in der Berechnung des Assoziations-Gatters verwendet werden, werden durch Simulation von unterschiedlichen Zielzusammenhängen bestimmt.
  • Falls die vorherige Observation näher an der assoziierten Spur als die laufende Observation, welche beim Schritt 352 bestimmt wurde, ist, führt der Spurenassoziationsalgorithmus 100 den Schritt 336 aus, um die Bearbeitung einer neuen Observation zu beginnen. Falls die vorherige Observation weiter von der Spur entfernt ist, als die laufende Observation, führt der Spurenassoziationsalgorithmus den Schritt 350 aus, welcher die vorherige Observation von der Spur disassoziiert und assoziiert die neue Observation mit der Spur. Nach Ausführung des Schritts 350 führt der Spurenassoziationsalgorithmus 100 den Schritt 336 durch.
  • Falls beim Schritt 352 der Spurenassoziationsalgorithmus 100 feststellt, daß die laufende Observation mit mehr als einer Spur korreliert ist, führt der Spurenalgorithmus 100 den Schritt 354 aus. Beim Schritt 354 lokalisiert der Spurenassoziationsalgorithmus die nächstgelegene Spur, welche nicht von dem Spurenassoziationsalgorithmus 100 berücksichtigt wurde. Falls alle Spuren berücksichtigt wurden, führt der Spurenassoziationsalgorithmus 100 den Schritt 336 aus, bei dem eine neue Observation betrachtet wird. Falls beim Schritt 354 der Spurenassoziationsalgorithmus 100 die nächstgelegene Spur, welche nicht betrachtet wurde, lokalisiert, führt der Spurenassoziationsalgorithmus 100 den Schritt 356 aus. Falls beim Schritt 356 der Spurenassoziationsalgorithmus 100 feststellt, daß die Spur noch nicht bereits assoziiert ist, führt der Spurenassoziationsalgorithmus 100 den Schritt 346 aus, welcher die Spur mit der Observation assoziiert. Falls beim Schritt 356 der Spurenassoziationsalgorithmus 100 feststellt, daß die nächstgelegene Spur bereits assoziiert wurde, führt der Spurenassoziationsalgorithmus 100 den Schritt 358 aus, welcher festlegt, ob die vorherige Observation, welche mit der Spur assoziiert ist, mit anderen Spuren assoziiert wird. Falls beim Schritt 358 der Spurenassoziationsalgorithmus 100 feststellt, daß die vorherigen Observationen mit anderen Spuren korrelieren, führt der Spurenassoziationsalgorithmus 100 den Schritt 360 aus. Falls beim Schritt 358 der Spurenassoziationsalgorithmus 100 feststellt, daß die vorherige Observation mit einer einzigen Spur korreliert ist, führt der Spurenassoziationsalgorithmus 100 den Schritt 354 aus.
  • Beim Schritt 360 stellt der Spurenassoziationsalgorithmus 100 fest, ob die vorherige Observation, welche mit der Spur assoziiert ist, näher an der laufenden Observation liegt. Falls die vorherige Observation näher an der Spur liegt als die momentane Observation, führt der Spurenassoziationsalgorithmus 100 den Schritt 342 aus. Falls die vorherige Observation weiter von der Spur entfernt ist, führt der Spurenassoziationsalgorithmus 100 den Schritt 350 aus, bei dem die alte Observation von der Spur disassoziiert wird, während die laufende Observation mit der Spur assoziiert wird. Der Spurenassoziationsalgorithmus 100 führt dann den Schritt 336 aus, bei dem eine neue Observation bearbeitet wird.
  • 2.6. Spurenfilteralgorithmus
  • Wie oben beschrieben, wird der Spurenfilteralgorithmus 102 verwendet, um Zielspuren, vorläufige Spuren oder Störfleckenspuren zu glätten und/oder vorherzusagen. Eine separate Filterimplementierung wird verwendet, um vorläufige Spuren dann zu filtern, welche für Ziel- und Störfleckenspuren verwendet werden. Der Spurenfilteralgorithmus 102, welcher zur Filterung von vorläufigen Spuren verwendet wird, enthält zwei konstante Verstärkungsfilter, welche in den Azimut- und Höhenlagenkoordinaten implementiert sind. Die Glättungsgleichung, welche mit jedem Filter assoziiert ist, ist folgendermaßen:
  • AS = &alpha;A1 Ap + &beta;A1(A&sub0; - Ap)
  • ES = &alpha;E1 Ep + &beta;E1(E&sub0; - Ep)
  • AS = &alpha;A2 Äp + &beta;A2(A&sub0; - Ap)/&Delta;t
  • S = &alpha;E2 Ep + &beta;E2(A&sub0; - Ap)&Delta;t
  • wobei:
  • AS, As = geglätteter Azimut und Azimutrate
  • ES, Es = geglättete Höhenlage und Höhenlageräte
  • Ap, Åp = vorhergesagter Azimut und Azimutrate
  • Ep, E = vorhergesagte Höhenlage und Höhenlagenrate
  • &alpha;A1, &beta;A1, &alpha;A1, &beta;A2 = Azimutverstärkungskonstanten
  • &alpha;E1, &beta;E1, &beta;E2, &beta;E2 = Höhenlageverstärkungskonstanten
  • &Delta;t = Beobachtungs-/vorhergesagtes Zeitintervall
  • Die Gleichungen, welche von dem Spurenfilteralgorithmus 102 verwendet werden, um die Spuren vorherzusagen, sind folgendermaßen:
  • Ap = AS + A&sub3; &Delta;t
  • Ep = S + S &Delta;t
  • p = S
  • p = S
  • Der Spurenfilteralgorithmus 102 zur Verwendung bei der Filterung von Zielspuren oder Störfleckenspuren wird nun beschrieben. Sobald der Klassifikationsalgorithmus für die Spuren feststellt, daß eine Observation eine Zielspur oder eine Störfleckenspur darstellt, werden der assoziierte Azimut und Höhenlage der Observation in Richtungs-Cosinuskoordinaten der Observationen entsprechend der folgenden Verhältnisse konvertiert:
  • = cos A cos E sin A cos E = -sin E
  • Der Zielfilteralgorithmus 102, welcher für die Filterung von Zielspuren oder Störfleckenspuren verwendet wird, verwendet drei separate Kalman-Filter für jede Koordinatenachse (d. h., Nord, Ost und unten). Drei feste Parameter (Richtungs-Cosinus (DC), DC-Geschwindigkeit und DC-Beschleunigung) werden von jedem Kalman- Filter bestimmt. Die drei separaten festen bestimmten Vektoren sind:
  • wobei
  • &Lambda;N = Nordrichtungscosinus (DC)
  • vtn = Nordkomponente der Ziel-DC-Geschwindigkeit
  • atn = Nordkomponente der Ziel-DC-Beschleunigung
  • Ähnliche Definitionen werden für XE und XD für die Ost- und nach-unten-Achsen verwendet. Die allgemeine Gleichung dieser drei Winkelfilter basieren auf:
  • Systemgleichung: Zn = H Xn + Nn
  • Zustandsgleichung: Xn = &phi;n1 Xn-1 wobei:
  • Zn = 1 x 1 beobachteter Richtungscosinus
  • H = 1 x 3 Zustandskoeffizienzmatrix
  • Xn = 3 x 1 Zustandsvariablenvektor
  • Nn = 1 x 1 Gauss-Rauschquelle
  • und
  • &phi;n-1 = 3 x 3 Zustandsübergangsmatrix.
  • Die Filtergleichungen werden dann gegeben durch:
  • K(n) = P(n) HT H P(n) [HT + ²m]&supmin;¹
  • Xs(n) = (n) + K(n) [Z(n) - H (n)]
  • (n + 1) = &phi; (n) Xs(n) + F(n+1/n)
  • P(n+1) = &phi;(n) [I - K(n) H] P(n) &phi;T (n) + Q(n)
  • wobei:
  • K(n) = 3 x 1 Kalman-Verstärkungsvektor
  • P(n) = 3 x 3 Fehlerkovarianzmatrix
  • = 1 x 1 Gauss-Rauschabweichung
  • Xs(n) = 3 x 1 geglätteter Zustandsfaktor
  • (n) = 3 x 1 errechneter Zustandsvektor
  • (n + 1/n) = 3 x 1 Hilfsmatrix
  • Q(n) = 3 x 3 Zufallserzeugungsmatrix
  • Time n ist die laufende bzw. momentane Zeit.
  • Zusätzlich zu dem Filtern, welches der Spurenfilteralgorithmus 2 durchführt, wird der Spurenfilteralgorithmus 102 ebenso verwendet, um den Azimut und die Höhenlage der Sensorkoordinaten in die Koordinaten der Plattform umzuwandeln, welche der Sensor benutzt. Beispielsweise ein bodenstationärer Sensor mit keiner Bewegungskomponente würde eine Transformation aufweisen, die den Azimut und Höhenlage des Sensors in Nordost und Nach-unten-Richtungscosinusse konvertiert. Die Transformation, welche durch den Spurenf ilteralgorithmus 102 diesbezüglich durchgeführt wird, ist abhängig von der speziellen Implementierung und wurde für unterschiedliche Plattformen und Initialnavigationseinheiten und Sensoren entwickelt.
  • 2.7 Observationsakzeptanzfunkion
  • Die Observationsakzeptanzfunktion 88 akzeptiert Observationen von dem Signalprozessor 74. Eine Observation enthält die Zeit des Vorhandenseins, Detektorliniennummer, Azimut und Amplitude. Die Observationsakzeptanzfunktion 88 ordnet den Observationsspeicherzeiger jeder Observation zu, um eine effizientere spätere Verarbeitung und Konversion der Abtastfeld- und Abtastlinieninformation auf aktuelle Höhenlagen, die aufgrund der kardanisch aufgehängten Winkelgeberausgänge und Vidiconsynchronisierungssignale basieren, zu ermöglichen.
  • Eine einzige Verbindungsliste-Softwaredatenstruktur wird vorzugsweise verwendet, um Speicherzeiger bereitzustellen. Das exakte Format und die Einheit der Eingangsobservationen sind anwendungsabhängig.
  • 2.8 I/O Prozessorfunktionen
  • Die I/O-Prozessorfunktionen 112 führen die Kommunikationsfunktion zwischen dem Signalprozessor 74, der Regel-Interface-Einheit 50 und der verketteten elektronischen Einheit 16 aus. Die I/O-Prozessorfunktion 112 befragt den eingespeicherten Speicher auf neue Observationen und/oder die Systemsteuerung, welche von der verketteten elektronischen Einheit 16 bereitgestellt wird, und andere Elemente der IEU 40. Die I/O-Prozessorfunktionen 112 sind anwenderspezifisch, aber allgemein monitor- und steuerungskommunikativ zu und von dem Datenprozessor 76 und ebenso mit anderen Komponenten der Vorrichtung 10.
  • 2.9. Spurenklassifikationsalgorithmus
  • Um Mittel zur Klassifikation von Spuren bereitzustellen, ist ein Spurenklassifikationsalgorithmus 104 vorgesehen. Der Spurenklassifikationsalgorithmus 104 wird verwendet, um das Gefährdungsniveau der Spuren zu bestimmen, und bestimmt, ob die Spur eine Zielspur oder eine Störfleckenspur ist. In Anwendung dessen prüft der Spurenklassifikationsalgorithmus 104 die Radiometrie und die Spurenzustandsparameter, welche mit jedem Ziel oder Störfleckenspur assoziiert sind, während des Verfolgungszyklus. Diese Parameter werden dann mit einem bekannten Parametersatz für spezielle Typen der Gefährdung verglichen. Einige Gefährdungsvergleichmethoden existieren, wobei einige davon in Blackman, Samuel S., Multiple Targeting With Radar Applications, Artech House, Dedham, MA (1986) at 281-305, 402-421", welche hiermit unter Bezugnahme in den Offenbarungsgehalt aufgenommen werden, beschrieben sind.
  • Es sollte verständlich sein, daß die vorliegende Erfindung lediglich in Verbindung mit einer speziellen Ausführungsform beschrieben wurde. Zum Beispiel kann der Algorithmus für das Störfleckenverzeichnis vielmehr von dem Datenprozessor als von dem Signalprozessor durchgeführt werden.

Claims (29)

1. Vorrichtung zum Aufsuchen und gleichzeitigem Verfolgen von mehreren sich bewegenden und nicht bewegenden Zielen innerhalb eines Objektraumes mit
einer zielorientierten FLIR-Einheit (12), welche einen vorwärts gerichteten Infrarotsensor und eine Einrichtung zur Orientierung des Sensors während des Such- und Verfolgungsvorgangs enthält, wobei die zielorientierte FLIR-Einheit einen elektrischen Ausgang in Abhängigkeit der Observationen von mehreren sich bewegenden und nicht bewegenden Zielen erzeugt, falls im Abbildungsmodus gearbeitet wird, und
mit einer Einheit (48) zum Nachweis und Verfolgen der mehreren sich bewegenden und nicht bewegenden Zielen in Abhängigkeit von dem elektrischen Ausgang der zielorientierten FLIR-Einheit (12) gemäß eines Verfolgungs- während - Abtastungs-Modus.
2. Vorrichtung nach Anspruch 1, wobei die Einrichtung (48) zum Nachweis und Verfolgen mehrerer Ziele einen Signalprozessor (74) und einen Datenprozessor (76) aufweist.
3. Vorrichtung nach Anspruch 2, wobei jedes der Ziele zumindest eine Observation bildet, und wobei der Signalprozessor enthält
eine Einheit (78) zur Erzeugung einer adaptiven Schwelle, und
eine Einheit (80) zur Begrenzung der Anzahl der Observationen, welche von dem Datenprozessor (76) bearbeitet sind.
4. Vorrichtung nach Anspruch 3, wobei der Signalprozessor (74) eine Kompensationseinrichtung für Mehrfach-Überschreitungen der adaptiven Schwelle durch das gleiche Ziel aufweist.
5. Vorrichtung nach Anspruch 2, wobei der Datenprozessor (76) enthält:
eine Einrichtung (102) zur Erzeugung von Spuren aus dem Ausgang des Signalprozessors (74) und
eine Einheit (104) zur Klassifizierung der Spuren in Zielspuren, vorläufige Spuren und Störfleckspuren.
6. Vorrichtung nach Anspruch 5, wobei der Datenprozessor (76) ferner enthält eine Einheit zur Zuordnung von neuen Observationen zu bestehenden Spuren.
7. Vorrichtung nach Anspruch 2, wobei der Datenprozessor (76) ferner eine Einheit (92) zur Eliminierung von Geisterbildern bzw. Schattenbildern, die durch die zielorientierte FLIR-Einheit (12) erzeugt werden.
8. Vorrichtung nach Anspruch 2, wobei der Datenprozessor (76) eine Einheit (94) zum Auslöschen von Observationen jener Ziele enthält, welche durch ein Überabtasten der Ziele durch die zielorientierte FLIR-Einheit (12) erzeugt wird.
9. Vorrichtung nach Anspruch 1 ferner mit einer verketteten elektronischen Einheit (16) zur Steuerung des Betriebs der zielorientierten FLIR-Einheit (12);
einen Bildschirm (42) zur Anzeige eines Teils des Objektraumes für einen Operateur, wobei der Bildschirm (42) elektrisch mit der verketteten elektronischen Einheit kommuniziert;
wobei die Nachweis- und Verfolgungseinheit (98) einen Signalprozessor (74), der mit der verketteten elektronischen Einheit (16) elektrisch kommuniziert und einen Datenprozessor (76) enthält, welcher mit dem Signalprozessor (74) und der verketteten elektronischen Einheit (16) elektrisch kommuniziert,
wobei der Datenprozessor enthält:
eine Einheit zur Bildung von Spuren aus dem elektrischen Ausgang der zielorientierten FLIR-Einheit,
eine Einheit (100) zur Zuordnung der Observationen, um Spuren festzulegen, welche die Fähigkeit besitzen, einen zweiten Ausgang zu erzeugen,
eine Einheit (148; 150) zur Filterung des Ausgangs der Einheit (100), um die Observationen zu festgelegten Spuren zuzuordnen,
eine Einheit (104) zur Klassifizierung von Spuren in Zielspuren, vorläufige Spuren und Störfleckspuren,
eine Einheit (92) zur Eliminierung von Geisterbildern, die durch die zielorientierte FLIR-Einheit erzeugt werden, und
eine Einrichtung (94) zum Auslöschen von Observationen der Spuren, welche durch ein Überabtasten aufgrund der zielorientieren FLIR-Einheit erzeugt werden.
10. Vorrichtung gemäß Anspruch 9, wobei der Signalprozessor (74) enthält
eine Einrichtung (78) zur Erzeugung einer adaptiven Schwelle, welche die Fähigkeit besitzt, die Wahrscheinlichkeit zu reduzieren, daß die Vorrichtung natürliche Hintergründe als Spuren identifiziert; und
eine Einrichtung (80) zur Erzeugung eines Störfleckanpassungsschwelle, die die Fähigkeit besitzt, die Anzahl der Observation zu limitieren, welche von dem Datenprozessor (76) bearbeitet werden.
11. Vorrichtung nach Anspruch 10, wobei die Einrichtung (78) zur Erzeugung einer adaptiven Schwelle enthält
einen Ziel-Filter (148), der derart betreibbar ist, um einen dritten Ausgang zu erzeugen;
einen Schutzfilter (150), der derart betreibbar ist, um einen vierten Ausgang zu erzeugen; und
eine Einheit (160), mit der bestimmt wird, ob der dritte Ausgang des Ziel-Filters (148) sowohl die Störfleckanpassungsschwelle als auch den vierten Ausgang des Schutzfilter (150) überschreitet.
12. Vorrichtung nach Anspruch 11, wobei die Einheit (80) zur Erzeugung einer Störfleckanpassungsschwelle so betreibbar ist, um
die Anzahl der Observationen zu berechnen, welche eine vorbestimmte Schwelle überschreiten;
zu bestimmen, ob die Anzahl der Observationen, welche die vorbestimmte Schwelle überschreiten, innerhalb eines
die Schwelle zu erhöhen, falls die Anzahl der Observationen, welche die vorgegebene Schwelle überschreiten, größer ist als die obere Grenze des erwünschten Bandes; und um
die vorgegebene Schwelle zu erniedrigen, falls die Anzahl der Observationen, welche die vorgegebene Schwelle überschreiten, kleiner ist als das untere Ende des erwünschten Bandes.
13. Vorrichtung nach Anspruch 12, wobei der Signalprozessor (74) ferner eine Kompensationseinheit für die Mehrfach- Überschreitungen hinsichtlich der adaptiven Schwelle durch das gleiche Ziel enthält.
14. Vorrichtung nach Anspruch 9, wobei die Einheit zur Bildung von Spuren einen Erfassungsalgorithmus für die Spuren enthält.
15. Vorrichtung nach Anspruch 14, wobei die Einheit (100) zur Zuordnung der Observationen auf festgelegte Spuren einen Assoziationsalgorithmus für die Spuren enthält.
16. Vorrichtung nach Anspruch 15, wobei die Einheiten zum Filtern (148; 150) einen Filteralgorithmus für die Spuren aufweisen.
17. Vorrichtung nach Anspruch 16, wobei die Einheit (104) zur Klassifikation der Spuren einen Klassifikationsalgorithmus für die Spuren aufweist.
18. Vorrichtung nach Anspruch 17, wobei die Einheit (92) zur Eliminierung von Geisterbildern einen logischen Algorithmus für Vidicongeisterbilder aufweist.
19. Vorrichtung nach Anspruch 18, wobei die Einheit (94) zur Auslöschung von Observationen einen logischen Algorithmus für das FLIR-Abtasten aufweist.
20. Verfahren zum Aufsuchen und Verfolgen einer Vielzahl von Zielen in einem Objektraum, welches die Schritte aufweist:
Messen der Ziele unter Verwendung einer zielorientierten FLIR-Einheit (12), welche in einem Abbildungsmodus arbeitet, wobei die zielorientierte FLIR-Einheit (12) die Fähigkeit besitzt, einen Ausgang zu erzeugen; und
Verarbeiten des Ausgangs aus der zielorientierten FLIR-Einheit (12), um das Aufsuchen und Verfolgen einer Vielzahl von Zielen in einem Verfolgungs-während-Abtastungsmodus zu erlauben.
21. Verfahren nach Anspruch 20, wobei der Schritt zur Verarbeitung des Ausgangs aus der zielorientierten FLIR-Einheit (12) ferner einen Schritt zur Ausführung eines adaptiven Schwellenalgorithmus enthält.
22. Verfahren nach Anspruch 21, wobei der Schritt zur Verarbeitung des Ausgangs aus der zielorientierten FLIR-Einheit (12) ferner einen Schritt zur Ausführung eines Störfleckenanpassungsschwellenalgdrithmus aufweist.
23. Verfahren nach Anspruch 22, wobei der Schritt zur Verarbeitung des Ausgangs der zielorientierten FLIR-Einheit (12) ferner einen Schritt zur Ausführung eines Spitzennachweisalgorithmus enthält.
24. Verfahren nach Anspruch 23, wobei der Schritt zur Verarbeitung des Ausgangs der zielorientierten FLIR-Einheit (12) ferner einen Schritt zur Ausführung eines Spurenassoziationsalgorithmus enthält.
25. Verfahren nach Anspruch 24, wobei der Schritt zur Verarbeitung des Ausgangs der zielorientierten FLIR-Einheit (12) ferner den Schritt zur Ausführung eines Spurenklassifikationsalgorithmus enthält.
26. Verfahren nach Anspruch 25, wobei der Schritt zur Verarbeitung des Ausgangs der zielorientierten FLIR-Einheit (12) ferner den Schritt zur Ausführung eines Spurenerfassungsalgorithmus enthält.
27. Verfahren nach Anspruch 26, wobei der Schritt zur Verarbeitung des Ausgangs der zielorientierten FLIR-Einheit (12) ferner den Schritt zur Ausführung einer Observationsakzeptanzfunktion enthält.
28. Verfahren nach Anspruch 27, wobei der Schritt zur Verarbeitung des Ausgangs der zielorientierten FLIR-Einheit (12) ferner den Schritt zur Ausführung eines logischen Algorithmus für einen Vidicongeist enthält.
29. Verfahren nach Anspruch 28, wobei der Schritt zur Verarbeitung des Ausgangs der zielorientierten FLIR-Einheit (12) ferner den Schritt zur Ausführung eines logischen Algorithmus zur FLIR-Überabtastung enthält.
DE69031094T 1989-04-10 1990-03-29 Verfahren und Gerät zur Überwachung und Zielverfolgung Revoked DE69031094T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/335,659 US5001650A (en) 1989-04-10 1989-04-10 Method and apparatus for search and tracking

Publications (2)

Publication Number Publication Date
DE69031094D1 DE69031094D1 (de) 1997-08-28
DE69031094T2 true DE69031094T2 (de) 1998-01-15

Family

ID=23312736

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69031094T Revoked DE69031094T2 (de) 1989-04-10 1990-03-29 Verfahren und Gerät zur Überwachung und Zielverfolgung

Country Status (7)

Country Link
US (1) US5001650A (de)
EP (1) EP0399180B1 (de)
JP (1) JP2758063B2 (de)
DE (1) DE69031094T2 (de)
ES (1) ES2104567T3 (de)
IL (1) IL93701A (de)
TR (1) TR25645A (de)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4127831C2 (de) * 1991-08-22 1996-11-28 Nord Systemtechnik Vorrichtung zur Aufbereitung von Bildsignalen
US5313212A (en) * 1992-10-19 1994-05-17 Hughes Aircraft Company Track filter bias estimation
US5422830A (en) * 1993-01-12 1995-06-06 Martin Marietta Corporation Method for tracking a maneuvering target with a slow scan rate sensor
US5338933A (en) * 1993-02-02 1994-08-16 Spar Aerospace Limited Scanning optical sensor
US5602760A (en) * 1994-02-02 1997-02-11 Hughes Electronics Image-based detection and tracking system and processing method employing clutter measurements and signal-to-clutter ratios
US5684719A (en) * 1995-06-07 1997-11-04 Hughes Electronics Software-based resolver-to-digital converter
AUPN722695A0 (en) * 1995-12-19 1996-03-14 Commonwealth Of Australia, The A tracking method for a radar system
US5789622A (en) * 1996-09-12 1998-08-04 Trw Inc. Focal plane array calibration method
US5909189A (en) * 1996-11-14 1999-06-01 Raytheon Company Group tracking
US5995900A (en) * 1997-01-24 1999-11-30 Grumman Corporation Infrared traffic sensor with feature curve generation
US6035254A (en) * 1997-10-14 2000-03-07 Trimble Navigation Limited GPS-aided autolock in a robotic total station system
EP0971242A1 (de) 1998-07-10 2000-01-12 Cambridge Consultants Limited Sensorsignalverarbeitung
US6211810B1 (en) * 1998-10-30 2001-04-03 Raytheon Company Adaptive dwell timing for radar tracking
US7570214B2 (en) 1999-03-05 2009-08-04 Era Systems, Inc. Method and apparatus for ADS-B validation, active and passive multilateration, and elliptical surviellance
US20100079342A1 (en) * 1999-03-05 2010-04-01 Smith Alexander E Multilateration enhancements for noise and operations management
US7908077B2 (en) * 2003-06-10 2011-03-15 Itt Manufacturing Enterprises, Inc. Land use compatibility planning software
US8446321B2 (en) 1999-03-05 2013-05-21 Omnipol A.S. Deployable intelligence and tracking system for homeland security and search and rescue
US7739167B2 (en) 1999-03-05 2010-06-15 Era Systems Corporation Automated management of airport revenues
US7612716B2 (en) 1999-03-05 2009-11-03 Era Systems Corporation Correlation of flight track data with other data sources
US7889133B2 (en) 1999-03-05 2011-02-15 Itt Manufacturing Enterprises, Inc. Multilateration enhancements for noise and operations management
US7667647B2 (en) * 1999-03-05 2010-02-23 Era Systems Corporation Extension of aircraft tracking and positive identification from movement areas into non-movement areas
US7777675B2 (en) * 1999-03-05 2010-08-17 Era Systems Corporation Deployable passive broadband aircraft tracking
US8203486B1 (en) 1999-03-05 2012-06-19 Omnipol A.S. Transmitter independent techniques to extend the performance of passive coherent location
US7782256B2 (en) * 1999-03-05 2010-08-24 Era Systems Corporation Enhanced passive coherent location techniques to track and identify UAVs, UCAVs, MAVs, and other objects
EP1384095B1 (de) * 2001-05-04 2009-10-14 Lockheed Martin Corporation System und verfahren zur messdatenzuordnung für passive koherente ortungsgsanwendungen
KR100377329B1 (en) * 2002-06-27 2003-03-26 Agency Defense Dev Automatic scan device and method with scan width and rate dependent on view field of zoom optical system
US6856272B2 (en) * 2002-08-28 2005-02-15 Personnel Protection Technoloties Llc Methods and apparatus for detecting threats in different areas
US7483551B2 (en) * 2004-02-24 2009-01-27 Lockheed Martin Corporation Method and system for improved unresolved target detection using multiple frame association
EP1712931A1 (de) * 2005-04-14 2006-10-18 Qinetiq Limited Verfahren und Vorrichtung um ein Ziel in einer Szene zu detektieren
US7983922B2 (en) * 2005-04-15 2011-07-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating multi-channel synthesizer control signal and apparatus and method for multi-channel synthesizing
US9363487B2 (en) * 2005-09-08 2016-06-07 Avigilon Fortress Corporation Scanning camera-based video surveillance system
US7738008B1 (en) * 2005-11-07 2010-06-15 Infrared Systems International, Inc. Infrared security system and method
US7965227B2 (en) * 2006-05-08 2011-06-21 Era Systems, Inc. Aircraft tracking using low cost tagging as a discriminator
US7492303B1 (en) 2006-05-09 2009-02-17 Personnel Protection Technologies Llc Methods and apparatus for detecting threats using radar
US7961395B2 (en) * 2007-07-17 2011-06-14 Northrop Grumman Systems Corporation Wideband diffraction limited optical receiver
EP2281171B1 (de) * 2008-05-02 2013-07-03 Bell Helicopter Textron Inc. Verfahren und vorrichtung zur erfassung präziser infrarot-hintergrundsignaturdaten auf beweglichen zielen
JP5616204B2 (ja) * 2010-11-19 2014-10-29 古野電気株式会社 信号処理装置、レーダ装置、信号処理方法、および信号処理プログラム
US11068563B2 (en) 2011-07-25 2021-07-20 Clean Power Research, L.L.C. System and method for normalized ratio-based forecasting of photovoltaic power generation system degradation with the aid of a digital computer
US10663500B2 (en) 2011-07-25 2020-05-26 Clean Power Research, L.L.C. System and method for estimating photovoltaic energy generation through linearly interpolated irradiance observations with the aid of a digital computer
US8682585B1 (en) 2011-07-25 2014-03-25 Clean Power Research, L.L.C. Computer-implemented system and method for inferring operational specifications of a photovoltaic power generation system
US10599747B1 (en) 2011-07-25 2020-03-24 Clean Power Research, L.L.C. System and method for forecasting photovoltaic power generation system degradation
US10140401B1 (en) 2011-07-25 2018-11-27 Clean Power Research, L.L.C. System and method for inferring a photovoltaic system configuration specification with the aid of a digital computer
US9880230B1 (en) 2011-07-25 2018-01-30 Clean Power Research, L.L.C. System and method for inferring operational specifications of a photovoltaic power generation system using net load with the aid of a digital computer
US9411073B1 (en) 2011-07-25 2016-08-09 Clean Power Research, L.L.C. Computer-implemented system and method for correlating satellite imagery for use in photovoltaic fleet output estimation
US9645180B1 (en) 2011-07-25 2017-05-09 Clean Power Research, L.L.C. System and method for estimating photovoltaic energy generation for use in photovoltaic fleet operation with the aid of a digital computer
US8165812B2 (en) * 2011-07-25 2012-04-24 Clean Power Research, L.L.C. Computer-implemented system and method for estimating power data for a photovoltaic power generation fleet
US9638831B1 (en) 2011-07-25 2017-05-02 Clean Power Research, L.L.C. Computer-implemented system and method for generating a risk-adjusted probabilistic forecast of renewable power production for a fleet
US10797639B1 (en) 2011-07-25 2020-10-06 Clean Power Research, L.L.C. System and method for performing power utility remote consumer energy auditing with the aid of a digital computer
US20130208121A1 (en) * 2012-02-10 2013-08-15 Xerox Corporation Traffic camera diagnostics via test targets
US9870704B2 (en) * 2012-06-20 2018-01-16 Conduent Business Services, Llc Camera calibration application
US10409925B1 (en) 2012-10-17 2019-09-10 Clean Power Research, L.L.C. Method for tuning photovoltaic power generation plant forecasting with the aid of a digital computer
US9286646B1 (en) 2013-07-05 2016-03-15 Clean Power Research, L.L.C. Method for managing centralized power generation with the aid of a digital computer
US10024733B1 (en) 2014-02-03 2018-07-17 Clean Power Research, L.L.C. Apparatus and method for empirically estimating overall thermal performance of a building with the aid of a digital computer
US10719636B1 (en) 2014-02-03 2020-07-21 Clean Power Research, L.L.C. Computer-implemented system and method for estimating gross energy load of a building
US10747914B1 (en) 2014-02-03 2020-08-18 Clean Power Research, L.L.C. Computer-implemented system and method for estimating electric baseload consumption using net load data
US10789396B1 (en) 2014-02-03 2020-09-29 Clean Power Research, L.L.C. Computer-implemented system and method for facilitating implementation of holistic zero net energy consumption
US9534540B2 (en) * 2014-04-30 2017-01-03 Ryan Christopher Tuero Thrust enabling objective system
US10339232B1 (en) 2015-02-25 2019-07-02 Clean Power Research, L.L.C. Computer-implemented system and method for modeling building heating energy consumption
US10332021B1 (en) 2015-02-25 2019-06-25 Clean Power Research, L.L.C. System and method for estimating indoor temperature time series data of a building with the aid of a digital computer
US10156554B1 (en) 2015-02-25 2018-12-18 Clean Power Research, L.L.C. System and method for determining infiltration of a building through empirical testing using a CO2 concentration monitoring device
US11921478B2 (en) * 2015-02-25 2024-03-05 Clean Power Research, L.L.C. System and method for estimating periodic fuel consumption for cooling of a building with the aid of a digital computer
US10203674B1 (en) 2015-02-25 2019-02-12 Clean Power Research, L.L.C. System and method for providing constraint-based heating, ventilation and air-conditioning (HVAC) system optimization with the aid of a digital computer
FR3042041B1 (fr) * 2015-10-02 2020-03-20 Mbda France Procede et dispositif pour determiner la distance entre un recepteur aerien et un emetteur terrestre
US10302687B2 (en) * 2016-06-14 2019-05-28 General Electric Company Filtration thresholding
US10359206B1 (en) 2016-11-03 2019-07-23 Clean Power Research, L.L.C. System and method for forecasting seasonal fuel consumption for indoor thermal conditioning with the aid of a digital computer
US11423199B1 (en) 2018-07-11 2022-08-23 Clean Power Research, L.L.C. System and method for determining post-modification building balance point temperature with the aid of a digital computer
RU2713511C1 (ru) * 2018-12-10 2020-02-05 федеральное государственное автономное образовательное учреждение высшего образования "Северо-Кавказский федеральный университет" Способ построения системы опознавания "свой-чужой" на основе протокола с нулевым разглашением, реализованный в модулярном коде
US11315258B1 (en) 2019-08-19 2022-04-26 Ag Leader Technology, Inc. Optical system for tracking the heading and position of an implement compared to the pulling tractor and other uses
CN114994633B (zh) * 2022-08-04 2022-11-08 四川九洲空管科技有限责任公司 一种用于二次雷达点航迹相关处理的方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3970990A (en) * 1972-06-22 1976-07-20 Grumman Aerospace Corporation Adaptive imaging system
GB1540992A (en) * 1975-04-22 1979-02-21 Smiths Industries Ltd Display or other systems and equipment for use in such systems
US4091414A (en) * 1977-01-28 1978-05-23 The United States Of America As Represented By The Secretary Of The Army Forward locking infrared video processing system having a scene dynamic range expander
US4267562A (en) * 1977-10-18 1981-05-12 The United States Of America As Represented By The Secretary Of The Army Method of autonomous target acquisition
EP0005918B1 (de) * 1979-05-09 1983-05-04 Hughes Aircraft Company Bildnachführsystem
US4328516A (en) * 1980-11-17 1982-05-04 The United States Of America As Represented By The Secretary Of The Army Integral test input for electro-optically multiplexed FLIR system
US4419692A (en) * 1981-12-31 1983-12-06 Texas Medical Instruments, Inc. High speed infrared imaging system
JPS58137776A (ja) * 1982-02-10 1983-08-16 Mitsubishi Electric Corp 画像追尾方法
JPH0236194B2 (ja) * 1983-01-24 1990-08-15 Mitsubishi Electric Corp Gazooomehyobunrikairo
US4881270A (en) * 1983-10-28 1989-11-14 The United States Of America As Represented By The Secretary Of The Navy Automatic classification of images
US4768034A (en) * 1984-03-26 1988-08-30 Preikschat F K Radar system for multiple object tracking and discrimination
US4612441A (en) * 1984-08-09 1986-09-16 The United States Of America As Represented By The Secretary Of The Army Moving object detection system using infrared scanning

Also Published As

Publication number Publication date
IL93701A (en) 1994-01-25
DE69031094D1 (de) 1997-08-28
IL93701A0 (en) 1990-12-23
US5001650A (en) 1991-03-19
ES2104567T3 (es) 1997-10-16
TR25645A (tr) 1993-07-01
EP0399180B1 (de) 1997-07-23
EP0399180A3 (de) 1991-11-21
EP0399180A2 (de) 1990-11-28
JPH02291928A (ja) 1990-12-03
JP2758063B2 (ja) 1998-05-25

Similar Documents

Publication Publication Date Title
DE69031094T2 (de) Verfahren und Gerät zur Überwachung und Zielverfolgung
DE3855830T2 (de) Zweimoden-Videotracker
DE69617570T2 (de) Objektentdeckungssystem mit einem Gradientfilter zur Clutter-Beseitigung einer Szene
DE3689545T2 (de) Zweimoden-Videotracker.
Liangkui et al. Using deep learning to detect small targets in infrared oversampling images
DE68912955T2 (de) Radar-Videodetektor und Zielverfolgungsgerät.
Tom et al. Morphology-based algorithm for point target detection in infrared backgrounds
DE69331407T2 (de) Bildprozessor zur Detektion und Verfolgung von Zielen
DE69021354T2 (de) System zur Detektion eines Hindernisses.
DE3882707T2 (de) Radar mit synthetischer apertur.
DE3922428A1 (de) Verfahren zur extraktion von bewegungsfehlern eines ein kohaerentes abbildungsradarsystem mitfuehrenden traegers aus radar-rohdaten und einrichtung zur durchfuehrung des verfahrens
DE2800074A1 (de) Kohaerentes pulsradarsystem fuer flugzeuge
EP0877951B1 (de) Vorrichtung zur abstands- und/oder positionsbestimmung
DE69017811T2 (de) Nachführsystem mit gezwungenem Korrelation/Gemischmodus.
DE69230064T2 (de) Signalprozessor
EP0396867A2 (de) Navigationsverfahren
EP1531343A1 (de) Verfahren zur Verfolgung von Objekten
DE2802441C3 (de) Vorrichtung zur Aufnahme von Infrarotbildern mit einer Aufnahmeröhre mit pyroelektrischem Target
DE10154861A1 (de) Verfahren zur Bereitstellung von Bildinformationen
DE102010008630A1 (de) Verfahren zu Verarbeitung von mehrkanaligen Bildaufnahmen für die Detektion von verborgenen Gegenständen bei der optoelektronischen Personenkontrolle
DE2815981A1 (de) Radarempfaenger
DE2847233A1 (de) Verfahren zum entdecken und identifizieren modulierter strahlungsquellen
DE4205056A1 (de) Verfahren und system zum abtasten einer szene zu dem zweck des klassifizierens einer mehrzahl von sich bewegenden objekten
DE69205481T2 (de) Verfahren zur Selbstlenkung eines Flugkörpers gegen ein Ziel mittels Entfernungsmessungen.
DE2932468C1 (de) Suchkopf

Legal Events

Date Code Title Description
8363 Opposition against the patent
8331 Complete revocation
8327 Change in the person/name/address of the patent owner

Owner name: RAYTHEON CO., LEXINGTON, MASS., US