DE3855830T2 - Zweimoden-Videotracker - Google Patents

Zweimoden-Videotracker

Info

Publication number
DE3855830T2
DE3855830T2 DE3855830T DE3855830T DE3855830T2 DE 3855830 T2 DE3855830 T2 DE 3855830T2 DE 3855830 T DE3855830 T DE 3855830T DE 3855830 T DE3855830 T DE 3855830T DE 3855830 T2 DE3855830 T2 DE 3855830T2
Authority
DE
Germany
Prior art keywords
tracking
image
correlation
window
centroid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE3855830T
Other languages
English (en)
Other versions
DE3855830D1 (de
Inventor
Steven L Chodos
Gordon T Pope
Arthur K Rue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Hughes Aircraft Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hughes Aircraft Co filed Critical Hughes Aircraft Co
Publication of DE3855830D1 publication Critical patent/DE3855830D1/de
Application granted granted Critical
Publication of DE3855830T2 publication Critical patent/DE3855830T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Image Analysis (AREA)

Description

    Hintergrund der Erfindung
  • Die vorliegende Erfindung betrifft im allgemeinen Bildverfolgungseinrichtungen für Anwendungen bei einem taktischem System und betrifft insbesondere ein Verfahren eines Bestimmens einer Korrelationsverfolgungsqualität bei einem Korrelationsverfolgungssystem.
  • Anwendungen bei einem taktischen System für Bildverfolgungseinrichtungen erfordern auch dann eine hohe Wirksamkeit, wenn Hintergrund- und Vordergrundstörobjekte mit dem Ziel von Interesse konkurrieren. Zusätzlich müssen diese Systeme unter dynamischen Bedingungen, bei denen die rela tiven Lagewinkel und die Entfernung zu dem Ziel andauernd geändert werden und bei denen ein Bildrollen um die Sichtlinie eines Verfolgungssensors ziemlich stark sein kann, eine ausreichende Wirksamkeit aufweisen.
  • In der Vergangenheit sind Bildverfolgungsprozessoren erfunden worden, welche eine Vielfalt von Verarbeitungsverfahren oder -algorithmen, wie zum Beispiel Schwerpunkt-, Flächenabgleichs-, Rand- und zahllose Korrelationsverfolgungsausführungskonzepte verwenden. Die meisten dieser Bildverfolgungsprozessoren besitzen Charakteristiken, welche sie für eine Verwendung in Kombination miteinander bei einem "Zweibetriebsarten"-Betrieb ungeeignet machen. Zum Beispiel sind Rand- und Flächenabgleichsalgorithmen entweder verrauscht oder weisen ein Fehlen gut definierter Zielformen auf, was unabhängig von Fehlerskalenfaktoren ist. Viele Ausführungen eines Korrelationsalgorithmus sehen keine ausreichende Wirksamkeit vor, wenn sie die Szeneänderungen auf einer dynamischen Grundlage verfolgen; folglich gibt es, wenn diese Arten von Korrelationsalgorithmen in Verbindung mit anderen Verfolgungsprozessoren in einer Zweibetriebsartenfunktion verwendet werden, eine übermäßige Abhängigkeit von dem wechselnden Verfolgungsalgorithmus.
  • Außerdem ist es, wenn sich bezüglich dem Hintergrund bewegende Ziele zu verfolgen sind, äußerst erwünscht, ein Verfolgungsfenster um das Ziel von Interesse herum zu positionieren, um dadurch den feststehenden Hintergrund auszuschließen. Jedoch sind Verfahren zum Ableiten sinnvoller Verfolgungsfenster für viele Korrelationsverarbeitungsalgorithmen nicht vorhanden oder stützen sich auf extern abgeleitete Daten, die Maße von Parametern sind, welche nicht wesentlich oder relevant bezüglich einer Korrelationsverarbeitung sind.
  • Bildverfolgungsprozessoren der zuvor beschriebenen Art sind normalerweise ausgelegt, um ein bestimmtes Bildabtast- und Zeilensprungbildformat zuzulassen. Somit muß, wenn Verfolgungssensoren verwendet werden, welche ein Bildformat liefern, das zu dem unterschiedlich ist, das normalerweise von dem Verfolgungsprozessor zugelassen wird, die Ausgestaltung des Prozessors abgeändert werden oder muß alternativ das Eingangsbildformat zu dem erforderlichen Bildformat abtastgewandelt werden, um verarbeitet zu werden. In dem Fall, daß ein Abtastwandeln erforderlich ist, wird eine bedeutende Verarbeitungsverzögerung eingebracht, wodurch unter dynamischen Bedingungen die Verfolgungsschleifenbandbreite beschränkt wird und das Verfolgungswirksamkeitspotential verschlechtert wird. Außerdem verbirgt das Abtastwandelverfahren häufig eine räumliche Abtastung einer Szene, die dem verwendeten Sensor anhaftet, und bringt Bildartefakte und/oder räumliche und vorübergehende Abtastwechselwirkungen ein, die bezüglich dem Erzeugen von zweckmäßigen Abtastfehlermeßwerten nachteilhaft sind.
  • Idealerweise würde es erwünscht sein, eine Bildverfolgungseinrichtung zu schaffen, die zwei Bildverfolgungsprozessoren unterschiedlicher Arten aufweist, von denen jeder insbesondere geeignet ist, eine hohe Wirksamkeit bei einer gegebenen Gruppe von taktischen Anwendungen vorzusehen, und welche ohne weiteres zur Verwendung mit zahllosen Abtast- und Zeilensprungformaten geeignet sind.
  • Bildverfolgungsprozessoren sowohl einer Schwerpunktals auch Korrelationsart sind technisch bekannt. Zum Beispiel offenbart die US-A 4,133,044 eine Bildkorrelationsverfolgungseinrichtung, welche eine rekursive Referenz verwendet, um Verfolgungsfehlerberechnungswerte zu berechnen. Die in dieser Druckschrift offenbarte Korrelationsverfolgungseinrichtung beinhaltet eine Schaltung zum Erzeugen einer Referenzabbildung in einen Bildelementformat. Die aus vorhergehenden Bildrahmen abgeleitete Referenzabbildungsbildelementinformation wird in einem rekursiven Speicher gespeichert, um die Berechnung von optimalen Azimut- und Elevationsgewichtungswerten für jedes Bildelement in dem Sichtfeld zuzulassen. Die Differenz zwischen dem Intensitätswert für jedes Bildelement, das während dem gegenwärtigen Rahmen empfangen wird, und dem Intensitätswert für das entsprechende Referenzabbildungsbildelement wird mit einer zweckmäßigen Gewichtungs funktion multipliziert. Jedes sich ergebende Produkt wird dann in einem Aufsummierer kombiniert, um Azimut- und Elevationskorrelationsfehlersignale auszubilden, welche zusammengesetzte Anzeigen der Rahmenzu-Referenz-Korrelation über dem bezeichneten Verfolgungsfensterbereich sind, welcher so groß wie das gesamte Sichtfeld (FOV) weniger einer Grenze eines Bildelements sein kann. Die Gewichtungsfaktoren für jedes Bildelement werden ebenso über die gesamte Bildebene kombiniert und anhäufend summiert, um drei angepaßte Skalenfaktoren an dem Ende jedes Rahmens auszubilden, welche mit den Azimut- und Elevationskorrekturfehlersignalen kombiniert werden, um eine Kreuzkopplung zu beseitigen und kreuzkopplungsfreie Korrelationsfehlersignale zu erzeugen.
  • Die in der US-A 4,133,044 offenbarte Bildkorrelationsverfolgungseinrichtung ist insbesondere bei dynamischen Anwendungen geeignet, bei denen sich Szenelagewinkel, eine Entfernung und eine Szenerollausrichtung um die Sichtlinie schnell ändern.
  • KURZFASSUNG DER ERFINDUNG
  • Ein kennzeichnendes Merkmal der Erfindung betrifft ein Verfahren eines Bestimmens des Verfolgungszustands des Korrelationsprozessors durch Kombinieren der Höhe einer Gradientenfunktion und der Höhe des Korrelationsdifferenzbilds gemäß dem Oberbegriff des Anspruch 1. Ein Verfahren dieser Art ist aus der WO 86/05890 bekannt. Dieses Merkmal sieht, wenn es mit der Schwerpunktverarbeitungsfunktion und den Schwerpunktverfolgungszustandsanzeigen kombiniert wird, ein Mittel zum Ausführen eines vollautomatischen Verfolgungsprozessors vor. Bei der vergleichenden Betriebsart sehen die zwei unabhängigen Verfolgungszustandsanzeigen das Mittel zum Auswählen des "besten" Prozessors für das Richtsteuersystem vor.
  • Gemäß der vorliegenden Anmeldung wird eine Zweibe triebsarten-Bildverfolgungseinrichtung geschaffen, welche einen Bildprozessor sowohl einer Korrelations- als auch Schwerpunktart verwendet, welche auf eine derartige Weise automatisch gesteuert werden, daß der Prozessor automatisch ausgewählt wird, der zum Verfolgen einer besonderen Szene am besten geeignet ist. Außerdem beinhaltet die Bildverfolgungseinrichtung einen Mikrocomputer und einen Bildpräprozessor. Der Bildpräprozessor wirkt als eine Schnittstellenvorrichtung zum Anpassen der analogen Eingangsbildsignale von den Verfolgungsempfängernlsensoren vor ihrem übertragen zu den Korrelations- und Schwerpunktprozessoren. Der Mikrocomputer steuert die Übertragung von Bilddaten, berechnet Verfolgungsfehlerparameter und führt sowohl einzelne Prozessorsteuerfunktionen als auch ein Gesamtbetriebsartensteuern aus, welches ein Auswählen des Prozessors beinhaltet, der die beste Verfolgungswirksamkeit liefert.
  • Die Bildverfolgungseinrichtung kann in irgendeiner der folgenden Verfolgungsbetriebsarten arbeiten:
  • (1) konkurrierend,
  • (2) komplementär,
  • (3) Differenzbild und
  • (4) sehr niedriges SNR (Signal/Rauschverhältnis).
  • Bei der konkurrierenden Betriebsart werden die Schwerpunkt- und Korrelationsprozessoren verwendet, um das be zeichnete Ziel unabhängig zu verfolgen, und der Prozessor, welcher die "beste" Verfolgungswirksamkeit liefert, wird für ein tatsächliches Steuern des Verfolgungssystems ausgewählt. Unabhängige Verfolgungszustandsanzeigen, die zusammen mit verfolgungsfensterabmessungsbetrachtungen für die Schwerpunkt- und Korrelationsprozessoren abgeleitet werden, bilden die Grundlage für eine aktive Prozessorauswahl aus. In dem Fall des Schwerpunktprozessors bildet die Anzahl von Bildelementen in dem Verfolgungsfenster, die den ausgewählten Schwellwert überschreiten können, zusammen mit dem Verhältnis der Anzahl von Verfolgungsfensterbildelementen, die den Schwellwert überschreiten, zu der Anzahl von Grenzfensterbildelementen, die den Schwellwert überschreiten, den Verfolgungszustand. Für den Korrelationsprozessor bildet das Verhältnis der Differenzbildsumme zu dem Differenzbildfensterbereich zusammen mit der Höhe der Gradientensumme und dem Mittelwert der Gradientensumme über dem Gradientenfenster den Verfolgungszustand.
  • Bei der konkurrierenden Betriebsart gibt es vier mögliche Verfolgungszustände:
  • (1) Verfolgen initialisieren,
  • (2) Verfolgen aufrechterhalten,
  • (3) Leerlaufen und
  • (4) Verlust einer Nachführung.
  • Die Verfolgungsabfolge startet, wenn der Bediener das Ziel von Interesse an der erwünschten Stelle innerhalb des Sichtfelds positioniert hat und eine Verfolgungsinitialisierungsanweisung ausgeführt hat. Von diesem Punkt an ist der Verfolgungsvorgang solange vollautomatisch, bis der Verfolgungsablauf von dem Bediener beendet wird oder der Verlust eines Nachführzustands erreicht wird, woraufhin ein Wiedererfassungsverfahren initialisiert wird oder ein Richtsteuern der Systeme automatisch zu dem Bediener zurückgebracht wird. Wie es vorhergehend erwähnt worden ist, werden die Verfolgungszustandssteuerübergänge durch Schwerpunkt- und Korrelationsverfolgungszustandsanzeigen bestimmt. Außerdem können Übergänge aufgrund einer Verletzung von Fensterabmessungsrandbedingungen oder Verfolgungspunktfehlausrichtungen entstehen, die entstehen können, während der inaktive Prozessor in einer Verfolgungsbetriebsart im Raster betrieben wird. Nachdem die Erfassungsabfolge für einen Prozessor initialisiert ist, wird eine Verfolgungsgültigkeitsanzeige erzeugt, wenn ein ausreichendes Verfolgen erfüllt ist. Der Prozessor ist dann ein Anwärter für ein aktives Verfolgungssteuern.
  • Bei der komplementären Betriebsart wird das rekursive Korrelationsreferenzbild durch die Schwerpunktverarbeitungsfunktion verarbeitet und werden der Korrelations- und Schwerpunktverfolgungsfehler gleichzeitig kombiniert, um ein einziges Verfolgungssteuerfehlersignal für jede Achse zu liefern.
  • Bei der Differenzbildbetriebsart verwendet die Verfolgungseinrichtung den Korrelationsprozessordifferenzbildparameter, um automatisch sich bewegende Ziele über eine Schwerpunktverarbeitung zu erfassen. Schließlich wird bei der Betriebsart eines sehr niedrigen SNR das rekursive Korrelationsreferenzbild verwendet, um das SNR des Bilds für eine Schwerpunktverarbeitung zu verbessern.
  • Ein kennzeichnendes Merkmal der Erfindung liegt in dem Vorsehen eines automatischen Bemessens eines Verfolgungsfensters für den Korrelationsprozessor unter Verwendung einer Gradientenfunktion, welche aus den Korrelationsgewichtungsfunktionsdaten ausgebildet wird. Die Ränder des Fensters werden durch Summieren der Absolutwerte der Azimutund Elevationsgewichtungsfunktionen und dann Aufsummieren dieser Summen über ein Gradientenfenster und derartiges Einstellen jedes Fensterrands ausgebildet, daß der Mittelwert der Summe über dem eingeblendeten Bereich minimiert wird.
  • Noch ein weiteres Merkmal der Anmeldung liegt in dem Verfahren eines Kombinierens der Korrelations- und Schwerpunktverfolgungsfehler, um ein zusammengesetztes Fehlersignal auszubilden, welches eine wahre komplementäre Funktion ist. Schließlich ist die Bildverfolgungseinrichtung der vorliegenden Anmeldung zur Verwendung mit Sensoren geeignet, die zahllose Formen einer räumlichen Zeilensprungabtastung und Bilddatenformate verwenden, die eine unidirektionale und bidirektionale Abtastung beinhalten.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • In der Zeichnung, welche einen wesentlichen Teil der Beschreibung ausbildet und in Verbindung mit dieser zu lesen ist und in welcher gleiche Bezugszeichen verwendet werden, um gleiche Komponenten in den verschiedenen Ansichten zu bezeichnen, zeigen:
  • Fig. 1A und 1B zusammengenommen ein gesamtes Blockschaltbild eines bevorzugten Ausführungsbeispiels einer bei der vorliegenden Erfindung verwendbaren Zweibetriebsarten- Bildverfolgungseinrichtung;
  • Fig. 2 ein kombiniertes Block- und Schemaschaltbild des Bildpräprozessors;
  • Fig. 3 ein kombiniertes Block- und Schemaschaltbild der Schaltung für den Schwerpunktprozessor;
  • Fig. 4 einen Graph der Beziehung zwischen den Schwerpunktprozessorlineargewichtungsfunktionen, We und Wd, und einer Verfolgungsfensterabmessung;
  • Fig. 5 ein kombiniertes Block- und Schemaschaltbild der Schaltung für den Korrelationsprozessor;
  • Fig. 6 eine schematische Ansicht der beim Berechnen der Korrelations gewichtungs funktionen für ein Bildelement "x" verwendeten räumlichen Beziehung von Bildelementen;
  • Fig. 7 ein kombiniertes Block- und Schemaschaltbild einer ein Fließbandverarbeitungsverfahren verwendenden Schaltung für den Korrelationsprozessor;
  • Fig. 8 ein Blockschaltbild einer Schaltung für das Berechnen eines Korrelationsfehlers;
  • Fig. 9 ein umfassendes Blockschaltbild der rekursiven Referenz einer Korrelation;
  • Fig. 10 und 11 detaillierte Blockschaltbilder der in Fig. 5 dargestellten Schaltung für den Korrelationsprozessor; und
  • Fig.12 (A bis C) Beispiele von geeigneten Grenz- und Verfolgungsfensterausgestaltungen.
  • DETAILLIERTE BESCHREIBUNG EINES BEVORZUGTEN AUSFÜHRUNGSBEISPIELS
  • Es wird zuerst auf die Figuren 1A und 1B verwiesen. Die vorliegende Erfindung schafft eine Zweibetriebsarten-Bildverfolgungseinrichtung zum Folgen und Verfolgen einer Zielszene 20, welche von einem Szenesignalempfänger 24 erfaßt wird. Der Empfänger 24 kann irgendeine von verschiede nen Arten von Sensoren 22 zum Empfangen abgestrahlter elektromagnetischer Energie von der Szene 20 aufweisen, wodurch die Szene 20 in einer Form aufgezeichnet wird, welche von dem Empfänger 24 in elektrische Bildsignale gewandelt werden kann. Der Empfänger 24 wandelt die aufgezeichnete elek tromagnetische Energie in analoge Bildsignale und überträgt diese analogen Bildsignale zusammen mit zweckmäßigen Bildsynchronisationssignalen zu der Zweibetriebsarten-Verfolgungseinrichtung, welche die vorliegende Erfindung ausbildet. Die Synchronisationssignale sind nicht erforderlich, wenn das analoge Bild ein zusammengesetztes Signal ist.
  • Die Bildverfolgungseinrichtung weist im allgemeinen einen Mikrocomputer und zugeordnete Taktgeber- und Steuerschaltungen 26, einen Bildpräprozessor 28, einen Korrela tionsprozessor 30 und einen Schwerpunktprozessor 32 auf. Der Mikrocomputer 26, Bildpräprozessor 28, Korrelationsprozessor 30 und Schwerpunktprozessor 32 werden durch einen später beschriebenen gemeinsamen Datenbus verbunden, zum Zwecke der vorliegenden Erklärung sind jedoch die Verbin dungen zwischen diesen Komponenten in den Figuren 1A und 1B bezüglich der Funktionssignale gezeigt, welche zwischen den Komponenten übertragen werden.
  • Der Mikrocomputer 26 kann zum Beispiel ein mit 8MHz getakteter Intel 80186 sein. Der Mikrocomputer 26 sieht zusammen mit überwachenden und berechnenden Hilfsmitteln ein gesamtes Steuern einer Verfolgungseinrichtungsbetriebsart für den Bildpräprozessor 28 und die Korrelations- und Schwerpunktprozessoren 30 bzw. 32 vor. Ein Unterbrechungssteuern, d.h., das Erkennen und Entscheiden einer Wertigkeit von drei Unterbrechungssignalen wird von dem Unterbre chungssteuereinrichtungsbereich des Mikroprozessors des Typs 80186 vorgesehen. Die drei Unterbrechungen initialisieren eine Verarbeitung, die an dem Ende von Schwerpunktund Korrelationsfenstern und während eines Intervalls eines Ende eines Felds erforderlich ist. Der Mikrocomputer 26 steuert ebenso einen programmierbaren Synchronisationsgenerator 38. Der Synchronisationsgenerator 38 nimmt ankommende horizontale und vertikale Synchronisationssignale von dem Empfänger 24 auf, um die Takte, Synchronisationssignale und FOV-(Sichtfeld)-Koordinaten wiederzugewinnen, die durchgängig durch die Verfolgungseinrichtung verwendet werden. Der Synchronisationsgenerator 38 kann optional programmiert werden, um das zusammengesetzte Synchronisationssignal von dem Videopräprozessor 28 in die vertikalen und horizontalen Synchronisationssignale zu trennen, wenn diese Signale nicht getrennt von dem Empfänger 24 vorgesehen werden. Ein Phasenregelkreis 42 wird verwendet, um das ankommende vertikale Synchronisationssignal nachzuführen, um einen Bildelementtakt wiederzugewinnen. Der Synchronisationsgenerator 38 kann optional programmiert werden, um interne Synchronisationssignale ohne Synchronisationssignale von dem Empfänger 24 zu erzeugen, um Selbsttests (BIT) durchzuführen. Der Synchronisationsgenerator 38 sieht ebenso die Haupt-FOV-Koordinaten für die Verfolgungseinrichtung vor. Diese Koordinaten lassen zu, daß die Verfolgungseinrichtungsprozessoren richtig die Stelle eines Bildelements innerhalb des FOV bestimmen.
  • Ein BIT-Bildgenerator 40 ist vorgesehen, um zahllose Arten von synthetischen Zielabmessungen und -formen bis zu 128 mal 128 Bildelementen zu erzeugen, um ein automatisches Testen jeder Prozessorenschaltung durchzuführen.
  • In einem Ausführungsbeispiel beinhaltet der Mikrocomputer 26 128 KBytes eines PROM 34 (programmierbaren Nur-Lese- Speichers) und 16 KBytes eines RAM 36 (Direktzugriffspeichers).
  • Alle Verfolgungseinrichtungsberechnungen oder Datenübertragungen, welche mit der Bildfeldrate (typischerweise 60 Hz) oder weniger auftreten, werden in dem Mikrocomputer 26 durchgeführt. Einige Funktionen, wie zum Beispiel Verfolgungsfehlerberechnungen, werden zweckmäßig jedes Bildfeld ausgeführt, andere können jedoch mit der Bildrahmenrate berechnet werden. Der Bildpräprozessor 28 dient als eine Bildschnittstelle für allgemeine Zwecke, die die Flexibilität aufweist und einstellbar ist, um irgendeine einer Gruppe von Bildquellen aus zahllosen Arten von Sensoren 22 zuzulassen, und dient ebenso dazu, die analogen Bildsignale, die von dem Empfänger 24 empfangen werden, vorab auf ein Format anzupassen, welches mit dem Korrelationsprozessor 30 und Schwerpunktprozessor 32 verträglich ist. Weiterhin sieht der Präprozessor 28 zusätzlich zu einem Durchführen einer grundlegenden Bild-Analog/Digitalwandlung der Eingangsbildsignale Funktionen eines Antialiasingfilterns, einer Bildverstärkungs- und Versatzbetätigung, einer nachgeführten Bildspitzen- und -talerfassung und einer einstellbaren Bildelementmittelung oder Bildelementratenpufferung vor.
  • Bildvorverarbeitung
  • Es wird nun ebenso auf Fig. 2 verwiesen, in der die grundlegenden Komponenten des Bildpräprozessors 28 dargestellt sind, wobei das analoge Eingangsbild von dem Empfänger 24 als ein Differenzsignal durch einen mikrocomputergesteuerten Schalter 46 an einem Differenzverstärker 48 aufgenommen wird, welcher dazu dient, ein Grundschleifenrauschen zu minimieren. Der Schalter 46 läßt abwechselnd ein Eingeben eines analogen BIT von dem Mikrocomputer 26 zu, welcher von dem Datenbus 44 des Mikrocomputers übertragen wird und von einem D/A-Wandler 92 verarbeitet wird. Das analoge Bildsignal, das von dem Verstärker 48 ausgegeben wird, wird durch ein Tiefpaßantialiasingfilter 50, welches ebenso eine Pseudomittelung von Bildelementen in der Abtastrichtung vorsieht, übertragen, jedoch kann das Filter 50 für jene Ausgestaltungen von einem mikrocomputergesteuerten Schalter 52 überbrückt werden, die eine Analog/Digitalwandlung erfordern, die synchron zu der Multiplexrate von Eingangssignalen ist. Eine programmierbare Versatzschaltung 54 und eine programmierbare Verstärkerschaltung nehmen Anweisungen auf, die von dem Mikrocomputer 26 erzeugt werden, und dienen dazu, den Versatz bzw. die Verstärkung des analogen Bildsignals einzustellen. Den analogen Versatz- und Verstärkungsvorgängen folgend wird das analoge Bildsignal von dem A/D-Wandler 60 zu sieben Bits codiert. Die mittlere Hälfte der sieben Bits wird als ein Bild mit sechs Bits verwendet, welches von dem Korrelationsprozessor 30 und dem Schwerpunktprozessor 32 verwendet wird, wie es später beschrieben wird.
  • Ein mikrocomputergesteuerter Dreistellungsschalter 58 wählt entweder das digitale Signal, das von dem A/D-Wandler 60 ausgegeben wird, eine digitale BIT-Bildquelle oder eine externe digitale Bildquelle zum übertragen zu Bildelementmittelungs- und -ratenpufferschaltungen 68 bzw. 70 aus. Die digitalen BIT-Bildsignale werden von dem Mikrocomputer 26 erzeugt, um eine Testbewertung auf der Grundlage von Daten durchzuführen, die von verschiedenen Anschlüssen in die Verfolgungseinrichtung gelesen werden. Eine Bildelementmittelung für angrenzende Spalten oder Zeilen bei 68 wird durch Speichern einer Spalte oder Zeile eines digitalisierten Eingangsbilds, anschließendes Rücklesen der gespeicherten Spalte oder Zeile, wenn die nächste Spalte oder Zeile ankommt, und Mitteln der Bildelementpaare durchgeführt. Somit werden abwechselnde Spaltenzeiten zum Speichern und zum Mitteln von Bildelementen verwendet. Ein Mitteln von angrenzenden Bildelementen in einer Spalte oder Zeile wird entweder durch Mitteln von angrenzenden Bildelementen in Paaren oder Mitteln von drei angrenzenden Bildelementen in einer Halb-Voll-Halb-Gewichtung durchgeführt. Sowohl die Bildelementmittelungsschaltung 68 als auch der A/D-Wandler 60 werden von einer Quelle von Eingangstaktsignalen 64 angesteuert.
  • Der Ratenpuffer 70 wird von einem Prozessortakt 60 angesteuert und kann aus zwei Spalten oder weniger von Speichern bestehen, welche abwechselnd die bildelementgemittelte Spalte oder Zeile speichern, wenn sie ausgebildet worden ist, und dann die folgenden zwei Spalten- oder Zeilenzeiten verändert, um die Daten mit einer Hälfte der Eingangstaktrate auszutakten. Der Puffer 70 dient effektiv dazu, die Verfolgungsbildelementdatenrate zu verringern. Einer oder beide der Bildelementmittelungs- und -ratenpuffervorgänge 68, 70 können, wenn es erwünscht ist, durch ein Paar von mikrocomputergesteuerten Überbrückungsschaltern 62 umgangen werden. Unter Verwendung sowohl eines Bildelementmittelns als auch -ratenpufferns wird es möglich, daß die Verfolgungseinrichtung ausreichend mit Eingangsbilddatenraten wirkt, welche die Hardwaregeschwindigkeitsbeschrakungen der Korrelations- und Schwerpunktprozessoren 30 bzw. 32 überschreiten.
  • Das Ausgangssignal 94 des Bildpräprozessors 28 ist ein digitales Bildsignal mit sechs Bits, welches gleichzeitig zu dem Korrelationsprozessor 30 und dem Schwerpunktprozes sor 32 übertragen wird. Das Ausgangssignal mit sieben Bits des A/D-Wandlers 60 wird verwendet, um einen zweckmäßigen dynamischen Bereich für eine Bildspitzen- und -talerfassung unter Verwendung einer Spitzenerfassungseinrichtung 72 und einer Talerfassungseinrichtung 74 vorzusehen. Die Erfassungseinrichtungen 72 und 74 werden mit einem AGC-Signal (automatisches Verstärkungssteuern) verknüpft, um die maximalen und minimalen Bildintensitäten in dem Verfolgungsfenster zu bestimmen. Jede Erfassungseinrichtung 72, 74 beinhaltet ein Filter eines rekursiven Typs, so daß mindestens vier Bildelemente einer gegebenen Intensität für diese volle Intensität erforderlich sind, um als eine Spitze oder Tal aufgezeichnet zu werden. Die Spitzen- und Talwerte werden über den Datenbus 44 zwischen Feldern zu dem Mikrocomputer 26 übertragen und die Pegel- und Verstärkungssteuerberechnungswerte werden dann von dem Mikrocomputer 26 berechnet. Der Bildpräprozessor 28 nimmt die Versatz- und Verstärkungswerte von dem Mikrocomputer 26 auf und verwendet diese Parameter, um den Gleichspannungspegel und die Bildverstärkung bei 54 bzw. 56 zu steuern. Der Gleichspannungspegel des Bilds ist während eines Felds konstant, wird aber zwischen jeder Bildzeile durch eine geeignete Gleichspannungswiedergewinnungsschaltung (nicht gezeigt) neu gebildet. Sowohl die Pegel- als auch Verstärkungssteuerschleifen sind derart ausgestaltet, daß sie die mittlere Rate von Bildintensitäten innerhalb der Verfolgungsfenster, die über den Bereich mit sechs Bits des digitalisierten Bilds gestreut sind, das zum Abtasten verwendet wird, haiten, wodurch ein Zielkontrast maximiert wird.
  • Somit dient, wie es zuvor beschrieben worden ist, der Bildpräprozessor 28 dazu, die Eingangsbildsignale zu puf fern, wandelt das analoge Eingangsbildsignal in ein digitales Signal mit sechs Bits, steuert automatisch den Pegel und die Verstärkung des digitalen Signals und sieht sowohl eine Bildelementmittelung als auch -ratenpufferung vor.
  • Schwerpunktverarbeitung
  • Die Aufmerksamkeit richtet sich nun auf Fig. 3, in der die hauptsächlichen Komponenten des Schwerpunktprozessors 32 dargestellt sind. Der Schwerpunktprozessor 32 dient dazu, die Daten zu erzeugen, die von dem Mikrocomputer 26 erfordert werden, um sowohl einen Schwerpunktverfolgungsfehler, einen Schwerpunktbildschwellwert als auch eine Verfolgungs- und Grenzfensterposition und -abmessung zu berechnen. Wie es in Fig. 3 gezeigt ist, wird das digitale Bildsignal von dem Präprozessor 28 sowohl zu dem Eingang eines Intensitätshistogrammgenerators 76 als auch zu einem Eingang eines digitalen Komparators 80 übertragen. Der Histogrammgenerator 76 entwickelt Intensitätshistogrammdaten für alle Bilder innerhalb des Verfolgungsfensters und ebenso innerhalb eines konzentrischen Grenzfensterbereichs. Die Histogrammdaten werden von dem Mikrocomputer 26 verwen det, um den Schwerpunktschwellwert automatisch zu berechnen. Der Histogrammgenerator 76 kann zum Beispiel einen RAM mit 128K X 256K aufweisen, wobei in diesem Fall eine Adresse mit 128 Bits in zwei Hälften mit 64 Bits getrennt wird, wobei eine Hälfte bei 98 durch die Bildelementintensitäten in dem Verfolgungsfenster adressiert wird und die andere Hälfte bei 96 durch die Bildelementintensitäten in dem Grenzfenster adressiert wird. Die Daten des RAM mit 256 Bits werden zwischen Feldern gelöscht und werden dann um eins erhcht, wenn sie adressiert werden. Die Adressen 96, 98 werden durch eine geeignete Taktgeber- und Steuerschaltung 78 erzeugt, welche weiterhin von Daten gesteuert wird, die auf dem Datenbus 44 von dem Mikrocomputer 26 aufgenommen werden. Das Ausgangssignal des Histogrammgenerators 76, das aus zwei Gruppen mit 64 Wörtern besteht, die den Verfolgungs- und Grenzfensterbereichen entsprechen, wird zu dem Mikrocomputerdatenbus 44 übertragen.
  • Das digitale Bildeingangssignal mit sechs Bits wird von dem Komparator 80 mit einem digitalen Schwellwertsignal verglichen, das an einem zweiten Eingang von dem Mikrocomputer 26 auf dem Datenbus 44 empfangen wird, und dann wird das sich ergebende binäre Bild für ein Bild über dem Schwellwert (positiver Kontrast) oder ein Bild unter dem Schwellwert (negativer Kontrast) in übereinstimmung mit einem Polaritätsbit 100 ausgebildet, das von dem Mikrocomputer 26 zu einem Auswahlschalter 82 zugeführt wird. Der binäre Schwerpunktbildbus, der innerhalb des Verfolgens ausgebildet ist, wird zu einem Zähler 84 und einem Aufsummierer 86 übertragen. FOV-Daten für sowohl den Azimut (AZ) als auch die Elevation (EL), die von dem Mikrocomputer 26 zugeführt werden, werden sowohl zu dem Aufsummierer 86 als auch zu einer Ziel- oder FOV-Randerfassungseinrichtung 88 übertragen; die Zielerfassungseinrichtung 88 nimmt diese Zählwerte auf einer zeitgeteilten Grundlage vom Schalter 90 auf, welcher bei der Bildfeldrate auslöst. Die Zielranderfassungseinrichtung 88 erfaßt somit die FOV-Stellen von Elevation (Oberseite und Unterseite) und Azimut (links und rechts, die den Schwellwertzielrändern entsprechen, und diese Zielrandinformation wird zu dem Datenbus 44 ausgegeben und wird von dem Mikrocomputer 26 verwendet, um die Abmessungen der Verfolgungs- und Grenzfenster zu bestimmen.
  • Wie es vorhergehend erwähnt worden ist, wird ein Steuern einer Verfolgungsfensterabmessung durch Erfassen und Verarbeiten der Stellen von Schwellwertbildrändern erzielt. Wie es in dem Diagram in Fig. 4 gezeigt ist, wird das binäre Bildausgangssignal von dem digitalen Komparator 80 effektiv mit linearen Gewichtungsfunktionen, We und Wd, multipliziert, welche durch eine Verfolgungsfensterabmessungsund -positionsinformation bestimmt werden. Die linearen Gewichtungsfunktionen We und Wd können aus Bildelementzählern (nicht gezeigt) in der Bildzeilen- oder -spaltenrichtung und Zeilen- oder Spaltenzählern (nicht gezeigt) in der senkrechten Richtung abgeleitet werden. Somit werden die binären Bildgewichtungsfunktionsprodukte und die Anzahl von Bildelementen, die den Schwellwert überschreiten, über das Verfolgungsfenster aufsummiert. Wie es in Fig. 3 gezeigt ist, wird das binäre Ausgangssignal des Komparators 80 durch Multiplizier 102 und 104 in Übereinstimmung mit den linearen Gewichtungsfunktionen We und Wd multipliziert oder verknüpft, bevor es zu dem Aufsummierer 86 übertragen wird.
  • Das Verfolgungsfenster läßt das Aufsummieren von drei binären Schwerpunktbildvariablen Ee, Ed und I&sub0; zu, welche die Grobfehlerparameter sind, die über den Datenbus 44 zu dem Mikrocomputer 26 übertragen werden, nachdem jedes Feld des Verfolgungsfensters abgetastet worden ist. Die tatsächlichen Verfolgungsfehler werden dann mit der Bildfeldrate von dem Mikrocomputer 26 berechnet. Die Variablen Ee, Ed und I&sub0; stellen das Aufsummieren der Elevations- und Azimut- FOV-Stellen bzw. den Bildelementzählwert eines aktiven Schwerpunktbilds innerhalb des Verfolgungsfensters dar.
  • Es ist hier anzumerken, daß das Grenzfenster zu dem Verfolgungsfenster konzentrisch ist und die Abmessung bezüglich dem Verfolgungsfenster durch ein zweckmäßiges Steuern mit Software eingestellt werden kann. Weiterhin kann der Schwerpunktprozessor 32 als sein Eingangssignal eine rekursive Referenz (später als eine "letzte Abbildung" beschrieben) oder Differenzbildsignale von dem Korrelationsprozessor 30 aufnehmen.
  • Korrelationsverarbeitung
  • Der Korrelationsprozessor 30 (Figuren 1A und 1B) beinhaltet im wesentlichen die grundlegenden Komponenten und das Verfahren eines Erzeugens von Korrelationsverfolgungsfehlersignalen, die im US-Patent 4,133,304, veröffentlicht am 02. Januar 1979, von John M. Fitts, verwendet werden, dessen gesamte Offenbarung hierin durch Verweis eingeschlossen ist. Zusätzlich zu einem Erzeugen von Korrelationsverfolgungsfehlersignalen summiert der Korrelationsprozessor 30 eine Summe der Absolutwerte der Gewichtungsfunktionen Wd und We und die Summe des Differenzbilds, welches hier im weiteren Verlauf definiert wird, auf. Die Summe des Differenzbilds wird über den Verfolgungsfensterbereich aufsummiert und der Absolutwert der Gewichtungsfunktion wird unabhängig von dem Verfolgungsfenster über einen eingeblendeten Bereich aufsummiert und wird dann von dem Mikrocomputer 26 verwendet, um die Korrelationsverfolgungsfensterabmessung zu berechnen.
  • Die Azimutgewichtungsfunktion Wd bzw. die Elevationsgewichtungsfunktion We sind durch die folgenden Beziehungen definiert:
  • Dabei ist Δe die Abmessung jedes Bildelements entlang der ε-Koordinate und ist Δd die Abmessung jedes Bildelements entlang der η-Koordinate und stellen i und j eine Bildelementstelle entlang den ε- bzw. η-Koordinaten dar.
  • Das Verfahren, das im US-Patent 4,133,004 offenbart ist, das hier im weiteren Verlauf als ein angepaßtes Filterkorrelationsverfahren bezeichnet wird, läßt die Verwendung einer "Fließband"-Verarbeitung der Bilddaten zu. Unter Verwendung einer Fließbandverarbeitung werden alle der gespeicherten Referenzszene- und der gegenwärtigen Szeneinformationen innerhalb eines Verfolgungsfensters verwendet, wenn das Fenster abgetastet wird, womit Fehlersignaldaten unmittelbar, nachdem das Abtasten des Verfolgungsfensters beendet ist, unberücksichtigt der Abmessung des Fensters geliefert werden.
  • Wie es nachstehend detaillierter beschrieben wird, verwendet der Korrelationsprozessor 30 ebenso ein Verfahren eines Aktualisierens einer rekursiven Referenz, bei dem neue Bilddaten sich erhöhend zu vorhergehend vorhandenen Referenzwertbilddaten addiert werden, so daß die Referenzwertdaten allmählich aktualisiert werden; auf diese Weise werden sich ändernde Zielmerkmale (aufgrund von Höhen- oder Bereichsänderungen und eines Sensorrollens um die Sichtlinie) zugelassen, werden aber sich schneller ändernde Daten, wie zum Beispiel Rauschen und eine Störung, welche durch die Szenen laufen, zurückgewiesen.
  • Die Aufmerksamkeit richtet sich nun auf Fig. 5, in der die grundlegenden Komponenten des Korrelationsprozessors 30 dargestellt sind. Die digitalen Bilddaten mit sechs Bits, die von dem Bildpräprozessor 28 übertragen werden, werden von einer digitalen Schaltung 108 für eine rekursive Referenz aufgenommen, welche einen Speicher zum Speichern einer Korrelationsreferenz beinhaltet, der einen Bereich von N mal M Verfolgungsbildelementen pro Feld aufweist. Das Eingangsbild von dem Bildpräprozessor 28 aktualisiert die rekursive Referenz mit einer Zeitkonstante, W&sub1;, welche von dem Mikrocomputer 26 gesteuert wird. Ein Aktualisieren einer Referenz wird auf einer Bildelement-um-Bildelement- Grundlage in Echtzeit durch Subtrahieren des letzten Referenzbildelementsbildintensitätswerts von dem Eingangsbildintensitätswert durchgeführt, wodurch ein "Differenzbild", Delta V, erzeugt wird, das Differenzbild in Übereinstimmung mit dem Parameter W&sub1; verschoben wird und dann das verschobene Differenzbild zu der letzten Referenzbildintensität addiert wird. Das Ergebnis dieser Berechnung einer rekursiven Referenz ist eine "derzeitige Abbildung" und wird in der rekursiven Referenz 108 gespeichert, um die "letzte Abbildung" für den nächsten Rahmen zu werden. Dieses Verfahren wird durch die Gleichung beschrieben:
  • MAPij(k) = W&sub1;Vij(k) + (1-W&sub1;) MAPij(k-1)
  • wobei
  • MAPij(k) = derzeitige Abbildung (rekursives Referenzausgangssignal)
  • Vij(k) = Eingangsbild
  • MAPij(k-1) = Abbildungsbild (von vorhergehenden Rahmen)
  • W&sub1; = Filterzeitkonstante
  • Die Ergebnisse der Berechnung einer rekursiven Referenz werden für ein Speichern darin Rahmen- und Feldspeichern 110 bzw. 112 zugeführt. Eine Taktgeber- und Steuerschaltung 106, die von dem Mikrocomputer 26 gesteuert wird, gibt Referenzfenstersignale aus, um das Referenzbild aus Speichern 110, 112 durch einstellbare Schalter 114 zu Elevations- und Azimutgewichtungsfunktionsschaltungen 116 bzw. 118 auszutakten. Das Referenzbild wird ebenso als die "letzte Abbildung" zu der rekursiven Referenz 108 zurückgeführt und wird ebenso zu dem Eingang des Schwerpunktprozessors 32 zur Verwendung bei den komplementären und Verfolgungsbetriebsarten eines geringen SNR zugeführt. Getrennte Rahmen- und Feldspeicher 110, 112 werden benötigt, um sich unterscheidende Bildquellenformate unterzubringen. Auf eine ähnliche Weise sind ebenso die einstellbaren Schalter 114 vorgesehen, welche sich unter dem Steuern des Mikrocomputers 26 befinden, um sich unterscheidende Bildquellenformate unterzubringen. In dem Fall von einigen Bildformaten wird zum Beispiel die Gewichtungsfunktion in der Zeilensprungrichtung aus einem Bild mit einer Rahmenverzögerung abgeleitet, während andere Formate eine Feldverzögerung erfordern. Wie es in Fig. 7 gezeigt ist, welche räumlich Bildelemente darstellt, die beim Berechnen der Korrelationsgewichtungsfunktionen für ein Bildelement "X" verwendet werden, ist die Azimutgewichtungsfunktion Wd eine Funktion von Bildelementen A und B, die einen Teil einer Abtastzeile 132 ausbilden, während die Elevationsgewichtungsfunktion We eine Funktion von Bildelementen C und D ist, welche während der gleichen Bildelementtaktperiode 130 auftreten, sich aber auf Abtastzeilen auf jeder Seite des einen enthaltenen Bildelements "X" befinden.
  • Das Differenzbild wird von der Funktion 108 zum Aktualisieren einer rekursiven Referenz einer Gruppe von Multiplizierern/Aufsummierern, die gemeinsam mit 122 bezeichnet sind, und einer Schaltung 120 zugeführt, welche den Absolutwert des Differenzbilds berechnet und einen solchen Wert zu dem Schwerpunktprozessor (Fig.1B) zur Verwendung bei der "Bilddifferenz"- oder automatischen Zielerfassungsverfolgungsbetriebsart leitet.
  • Die Korrelationsgewichtungsfunktionen Wd und We, die aus den Gewichtungsfunktionsschaltungen 118 bzw. 116 ausgegeben werden, werden einer Schaltung 124 zugeführt, bei der ihre Absolutwerte berechnet werden. Die Absolutwerte der Gewichtungsfunktionen werden dann von einer Addiererschaltung 126 zusammenaddiert und diese Summe wird über einen unabhängig gesteuerten Fensterbereich von einem Aufsummierer 128 aufsummiert. Die aufsummierte Summe wird zu dem Datenbus 144 ausgegeben und wird von dem Mikrocomputer 26 verwendet, um die Abmessung des Verfolgungsfensters automatisch einzustellen.
  • Das Differenzbild wird bei 122 für jedes Bildelement in dem Verfolgungsfenster und bei 123 für jedes Bildelement in den Grenzfenstern aufsummiert. Diese auf summierten Summen werden zu dem Datenbus 44 ausgegeben und werden von dem Mikrocomputer 26 verwendet, um die Korrelationsverfolgungsqualität zu bestimmen.
  • Eine Taktgeber- und Steuerschaltung 106, die von dem Mikrocomputer 26 betrieben wird, sieht die notwendigen Takt- und Steuersignale für den Korrelationsprozessor 30 vor. Das heißt, die Schaltung 106 sieht Referenzverknüpfungssignale an Speichern 110, 112, ein Verfolgungsfenstersignal an Multiplizierern/Aufsummierern 122, ein Gradientenfenstersignal an dem Multiplizierer/Aufsummierer 124 und Grenzfenstersignale an Aufsummierern 123 (a bis d) vor.
  • Fig. 12 zeigt eine Darstellung von verschiedenen Grenzfensterausgestaltungen, die bei der Verbesserung der vorliegenden Erfindung angewendet werden können. Die Ausgestaltung des Grenzfensters wird von dem Takt von Verknüpfungssignalen aus der Taktgeber- und Steuerschaltung 106 bestimmt, welche effektiv als ein Schalter dient, um dem besonderen Aufsummierer 123 mitzuteilen, das Aufsummieren des Differenzbilds während einer besonderen Abtastzeile zu starten und zu stoppen. In Fig. 5 sind vier verschiedene Aufsummierer gezeigt, um vier verschiedene Grenzfensterausgestaltungen vorzusehen. Jedoch könnte, wenn es erwünscht ist, ein Multiplexlösungsweg verwendet werden, bei dem ein einziger Aufsummierer verwendet wird, um sowohl die Verfolgungsfenster- als auch Grenzfensterausgestaltungen zu definieren. In dem Ausführungsbeispiel, das in Fig. 5 gezeigt ist, entspricht das Ausgangssignal auf der Leitung 125 von einem Aufsummierer 122 dem Differenzbild, das über das Verfolgungsfenster aufsummiert wird, wohingegen das Ausgangssignal auf Leitungen 127 (a bis d) dem aufsummierten Differenzbild über der ausgewählten Grenzfensterausgestaltung entspricht.
  • Wie es vorhergehend dargelegt worden ist, ist die Korrelationselevationsgewichtungs funktion We die Differenz zwischen den Intensitätswerten für die Bildelemente über und unter dem vorliegenden Bildelement, das verarbeitet wird. Auf eine ähnliche Weise ist die Azimutgewichtungsfunktion Wd die Differenz zwischen den Bildelementintensitätswerten links und rechts des vorliegenden Bildelements, das verarbeitet wird. In dem Fall, daß das Bildformat in der Richtung We verschachtelt ist, erfordert die Funktion We eine Information in dem Feld, das dem Feld gegenüberliegt, das verarbeitet wird; diese Information wird von dem Feldspeicher 112 zugeführt. Die Funktion Wd erfordert eine Information in dem gleichen Feld wie das verarbeitete Feld, so daß Daten von dem Rahmenspeicher 110 verfügbar sind, der von der rekursiven Referenz 108 verwendet wird.
  • Die Multiplizierer/Aufsummierer 122 werden betrieben, um Daten lediglich innerhalb des Verfolgungsfensterbereichs aufzusummieren und bilden die folgenden fünf Korrelationsvariablen aus, welche von dem Mikrocomputer 26 verwendet werden, um den Korrelationsverfolgungsfehler zu berechnen:
  • Ee(k) = Σ[Weij(k) ΔVij(k)]
  • Ed(k) =Σ[Wdij(k) ΔVij(k)]
  • Ce = Σ[Weij(k)]²
  • Cd = Σ[Weij(k)]²
  • Ced = Σ[Weij(k) Wdij(k)]
  • Unter Verwendung der vorhergehenden fünf Variablen berechnet der Mikrocomputer 26 die Verfolgungsfehler in Übereinstimmung mit dem Ausdruck:
  • Das zuvor erwähnte angepaßte Filterkorrelationsverarbeitungsverfahren wird nun detaillierter unter Bezugnahme auf die Figuren 7 bis 9 beschrieben. Das Verfahren kann als ein Verfahren zum Bestimmen der Stelle des Nulldurchgangsder räumlichen Kreuzkorrelationsfunktionsableitung betrachtet werden, welche mathematisch zum Bestimmen der Spitze der Szenereferenzkreuzkorrelationsfunktion gleichbedeutend ist. Unter Verwendung einer Taylorreihenentwicklung ist es zu sehen, daß der Nulldurchgang durch Multiplizieren der Bildelementintensitätsdifferenzen zwischen der ankommenden Szene und der Referenzszene mit Gewichtungsfunktionen berechnet werden kann, die die horizontalen und vertikalen räumlichen Ableitungen der Referenzszene an der Stelle des verarbeitenden Referenzszenebildelements sind. Die einzelnen Differenzbildgewichtungsfunktionsprodukte für jedes Bildelement werden erzeugt, wenn die ankommende Szene abgetastet wird, und werden über das Verfolgungsfenster von Interesse aufsummiert. Verfolgungsfehler werden dann durch zweckmäßiges Skalieren dieser aufsummierten Produkte mit den auf summierten Summen der Produkte und Quadrate der Gewichtungsfunktionen erzielt. Ein Erzeugen einer Gewichtungsfunktion und die zweckmäßigen Bildelementratenmultiplikationen werden zusammen mit den Produktaufsummationen von dem Korrelationsprozessor 30 durchgeführt.
  • Fig. 8 zeigt die Fließbandverarbeitung des ankommenden Bilds und der rekursiven Referenz, die von dem Korrelationsprozessor 30 verwendet wird, für ein vereinfachtes, unverschachteltes Bildformat. Die horizontalen und vertikalen Gewichtungsfunktionen sind mit Wdij bzw. Weij bezeichnet. Das Differenzbild ist gleich Vij - Rij wobei Vij und Rij die ankommenden Szene- bzw. Referenzbildelementintensitätswerte sind. Der restliche Teil der Verfolgungsfehlerberechnung wird von dem Mikrocomputer 26 ausgeführt, nachdem das Verfolgungsfenster abgetastet worden ist und die Summen aufsummierter Fehlerparameter verfügbar sind. Diese Berechnung besteht aus einem Skalieren einer Kreuzkopplungskorrektur und einer Verarbeitung zum Entfernen einer Abweichung. Diese zuletzt erwähnten Berechnungen sind in Blockschaltbildform in Fig. 8 dargestellt. Die Skalierberechnung besteht aus einem Normalisieren der Grobverfolgungsfehler, Ee und Ed, durch die zweckmäßige ins Quadrat genommene Gewichtungsfunktionssumme. Der Kreuzkopplungskorrekturvorgang verwendet die Gewichtungs funktionskreuzproduktsumme, Ced, und entfernt eine Fehlerkreuzkopplung, die ansonsten bei vielen Korrelationsverarbeitungsalgorithmen auftreten würde, wenn Szene- oder Zielränder oder Intensitätsgradienten bezüglich den horizontalen und vertikalen Achsen schräg verlaufen würden.
  • Eine Verarbeitung zum Entfernen einer Abweichung kompensiert die Tatsache, daß die rekursive Referenz andauernd mit einem Aktualisierungsratenfaktor W&sub1; aktualisiert wird. Die grundlegenden Komponenten der rekursiven Referenz 108 zusammen mit dem Rahmenspeicher 110 sind in Fig. 9 gezeigt. Wie es vorhergehend dargelegt worden ist, wird die rekursive Referenz einer Korrelation durch Multiplizieren der Eingangsbildbildelementintensitätswerte mit einem Gewichtungsfaktor, W&sub1;, und Addieren von ihm zu dem vorhandenen Intensitätswert für das entsprechende Referenzbildelement erzeugt, nachdem der Referenzwert mit 1 - W&sub1; multipliziert worden ist. Die "Lebensdauer" der besonderen Szene in der Referenz wird durch den Wert von W&sub1; (welcher gleich oder kleiner als 1 ist) bestimmt. Wenn W&sub1; zum Beispiel gleich 1/60 ist und das Sensorfeld 60 Felder pro Sekunde ist, ist die "Lebensdauer" einer Referenzszene eine Sekunde. Für eine Verarbeitung zum Entfernen einer Abweichung werden die vorhergehenden Verfolgungsfehler mit einem Gewichtungsfaktor von W&sub1; aufsummiert, womit sichergestellt ist, daß die Anfangsrichtreferenz auch dann aufrechterhalten wird, wenn dynamisch folgende Fehler während eines Aktualisierens einer Referenz auftreten. Weiterhin können bei einer Verarbeitung eines Entfernens einer Abweichung von dynamisch folgenden Fehlern viele Bildelemente in einer Höhe vorhanden sein, ohne daß ein Verlieren einer Nachführung bewirkt wird, auch wenn unter einigen Umständen der grundlegende Fehlerverarbeitungsalgorithmus Fehlersignale mit beschränktem dynamischen Bereich vorsieht. Die Ausgangssignale der Verarbeitung zum Entfernen einer Abweichung werden dann durch die Verfolgungsbildelementabmessungen skaliert, um Winkelverfolgungsfehler zu liefern.
  • Für verschachtelte Bildformate werden rekursive Referenzen effektiv für jedes einzelne Feld erzeugt. Für Sensoren mit einer nicht überlappenden Verschachtelung von 2:1 werden die Gewichtungsfunktionen in der Zeilensprungrichtung unter Verwendung von Intensitätswerten von angrenzenden Bildelementen in der Referenz für das gegenüberliegende Feld erzeugt Die aufsummierten Summen für die nicht überlappenden verschachtelten Felder werden dann kombiniert und für eine einzelne Verfolgungsfehlerberechnung verwendet, die zu jeder Zeit aktualisiert wird, zu der neue Daten von einem Feld erzielt werden. Bei verschachtelten Bildformaten ist der Aktualisierungsratenfaktor W&sub1; der Aktualisierungsratenf aktor einer rekursiven Referenz, der durch die Anzahl von Bildfeldern pro Bildrahmen dividiert ist.
  • Der rekursive Aktualisierungsratenfaktor W&sub1;, welcher zwischen null und eins liegen kann, wird dynamisch von dem Mikrocomputer 26 gesteuert. Ein Faktor 1, welcher einem einzigen Rahmenspeicher entspricht, wird verwendet, um eine neue Referenz zu laden. Ein Faktor von 0 wird verwendet, um die Referenz einzufrieren, wenn die Übergangsstörung erfaßt wird, womit eine Störungsverunreinigung verhindert wird. Während des Verfolgungseingriffs wird eine Referenz geladen, wenn ein Verfolgen initialisiert wird. Der Aktualisierungsratenfaktor wird dann auf eine programmierte Weise auf aufeinanderfolgend kleinere Werte verringert, um die Rauschfiltereigenschaft der rekursiven Referenz zu optimieren. Danach ist der Aktualisierungsratenfaktor eine Funktion des Korrelationsverfolgungszustands und der Rahmen-zu- Rahmen-Fehler zwischen der ankommenden Szene und der Referenz. Wenn sich der Rahmen-zu-Rahmen-Fehler erhöht, wird der Aktualisierungsratenfaktor ebenso erhöht, wodurch die augenblickliche Fehlausrichtung zwischen der ankommenden Szene und der Referenz verringert wird. Wenn eine Störungseinführung erfaßt wird, wird die Referenz eingefroren.
  • Szene- oder Verfolgungsbildgradienten enthalten die Information, die zur Korrelationsverfolgung grundlegend ist. Somit ist es erwünscht, die Korrelationsfenster zu bemessen, um diesen Informationsgehalt zu maximieren. Um einen zweckmäßigen Meßwert der erwünschten Information zu erzeugen, wird die Gradientenfunktion für jedes Referenzbildelement erzeugt, das in dem Verfolgungsfenster enthalten ist. Wie es vorhergehend erwähnt worden ist, ist diese Gradientenfunktion die Summe der Quadrate der horizontalen und der vertikalen Gewichtungsfunktionen für die Bildelementstelle von Interesse. Die zwei Komponenten einer Gradientenfunktion werden über ein Gradientenfenster aufsummiert und werden von dem Mikrocomputer 26 zusammenaddiert. Das Gradientenfenster wird dann von dem Mikrocomputer 26 zum Schwanken gebracht, um den Mittelwert dieser Summe über dem Gradientenfenster zu maximieren. Die Gradientenfensterrandstellen werden dann von dem Mikrocomputer 26 verarbeitet, um die erwünschten Verfolgungsfensterrandstellen zu erzeugen.
  • Unter normalen Verfolgungszuständen ist die Summe des Differenzbilds über dem Verfolgungsfenster und den Grenzfenstern verhältnismäßig klein. Jedoch kommt es in dem Fall, daß eine Störung in das Verfolgungsfenster eindringt, zu einem Ansteigen einer bedeutenden Differenzbildsumme. Somit wird das Differenzbild über die Verfolgungs- und Grenzfenster aufsummiert und wird diese Störungserfassungsinformation zur Verwendung bei verschiedenen Korrelationsverfolgungssteueralgorithmen und bei der gesamten Verfolgungsprozessorbetriebsart und dem Verfolgungszustandssteuern zu dem Mikrocomputer 26 übertragen.
  • Ein szenegemitteltes Bild von der rekursiven Referenz einer Korrelation und das Korrelationsdifferenzbild haften dem angepaßten Filterkorrelationsverfahren an. Wenn die Bildausgangsnebenprodukte mit der Funktion kombiniert werden, die von dem Schwerpunktprozessor 32 vorgesehen wird, sieht das Ergebnis ein Mittel vor, um eine Anzahl von sinn vollen Verfolgungsfunktionen bei Betriebsarten unter einem Steuern des Mikrocomputers 26 vorzusehen.
  • Ein weiteres kennzeichnendes Merkmal der vorliegenden Verfolgungseinrichtung ist die Weise, auf welche eine Verfolgungszustandsanzeige, TSI, unter Verwendung des Korrelationsprozessors 30 erzeugt wird, und in dieser Hinsicht wird nun Bezug auf Fig. 5 genommen, in der die grundlegenden Komponenten des Korrelationsprozessors 30 zusammen mit den Komponenten zum Erzeugen einer TSI dargestellt sind. Die Gewichtungsfunktionen Wd und We, die aus der rekursiven Referenz 108 und Abbildung 110 abgeleitet werden&sub1; werden von den Multiplizierern/Aufsummierern 122 verarbeitet, um die Fehlerskalierfunktionen Cd, Ced, und Ce zu erzeugen. Außerdem werden die Gewichtungsfunktionen Wd und We bei 122 mit dem Differenzbild multipliziert und aufsummiert, um Fehlerfunktionen Ee und Ed zu erzeugen. Das Differenzbild, das durch Subtrahieren der letzten Abbildung von dem Eingangsbild bei 108 erzeugt wird, wird bei 122 für das Verfolgungsfenster und 123(a) bis 123(d) für die Grenzfenster aufsummiert. Das Quadrat der Gewichtungsfunktionen Wd und We wird bei 124 berechnet, um die Fensterbemessungsgradien tenfunktionen Cdg und Ceq zu erzeugen.
  • Eine Verfolgungszustandsanzeige (TSI) zur Korrelationsverarbeitung wird durch die folgenden Funktionen bestimmt: optional
  • wobei Atg = Verfolgungsfensterbereich
  • Agg = Gradientenfensterbereich, und
  • Abgi = Bereich des Grenzfensters i
  • Um eine "ausreichende" TSI zu erzielen, müssen die vorhergehende Funktion (1), Funktion (4) und Funktionen (5) bis (7) (wenn sie ausgeführt werden) kleiner als bestimmte untere Grenzwerte sein und müssen Funktionen (2) und (3) beide größer als vorbestimmte Werte sein; wenn eine der Funktionen (2) oder (3) unter die jewei ligen vorbestimmten Werte fällt, wird die TSI "ein Verlust einer Nachführung droht" unberücksichtigt der Höhe der Funktion (1) und von Funktionen (4) bis (7). Wenn die Höhe der Funktion (1) und von Funktionen (4) bis (7) größer als die bestimmten unteren Grenzen sind, aber kleiner als bestimmte obere Grenzwerte sind, dann ist die TSI "am Rand". Wenn die Funktion (1) und Funktionen (4) bis (7) die bestimmten oberen Grenzwerte überschreiten, ändert sich die TSI zu "ein Verlust einer Nachführung droht".
  • Es wird aus der vorhergehenden Deschreibung angenommen, daß sich Fachleute verschiedene Schaltungen zum Ausführen des Korrelationsprozessors 30 vorstellen können. Jedoch wird nun, um hierin eine vollständige und komplette Beschreibung vorzusehen, eine bestimmte Ausführung des Korrelationsprozessors 30 unter Bezugnahme auf die Figuren 10 und 11 beschrieben. Der Aktualisierungsratenfaktor W&sub1; wird von dem Datenbus 44 als ein Wort mit 4 Bit einem Signalspeicher 138 zugeführt, welcher selektiv durch ein Schreibfreigabesignal W&sub1; freigegeben wird. 1 Bit von W&sub1; im Signalspeicher 138 wird einer Abbildungseinfrierlogik 142 zugeführt, welche dazu dient, die rekursive Referenz einzufrieren, wenn ein Eindringen einer Störung erfaßt wird. Als Reaktion auf eine Übergangsstörung werden ein Einfriersignal und ein Aufsummierersperrsignal aus der Abbildungseinfrierlogik 142 ausgegeben, um ein später beschriebenes Abbildungsfilter 154 und die Aufsummierer 122, 128 (Fig. 5) einzufrieren.
  • 6 Bits von digitalen Bilddaten aus dem Bildpräprozessor 28 werden einer Subtrahiererschaltung 144 zugeführt, welche dazu dient, von den Bilddaten einen Wert zu subtrahieren, der einem Schwellwert entspricht, welcher von dem Mikrocomputer 26 zugeführt wird, und dann in einem Korrelationsschwellwertsignalspeicher 140 gespeichert wird. Das Ausgangssignal der Subtrahiererschaltung 144 wird durch einen Multiplexsignalspeicher 146 als ein Wort mit 6 Bit einer zweiten Subtrahiererschaltung 148 zugeführt, welche dazu dient, die Bilddaten einer "letzten Abbildung" von dem ankommenden Bild zu subtrahieren. Das sich ergebende Ausgangssignal der Subtrahiererschaltung 148 ist eine Wort mit 13 Bit, welches von Signalspeichern 152 gehalten wird und dann einem Abbildungsfilter 154 zugeführt wird, das von dem Zeitkonstantensignal W&sub1; und zugeordneten Einfriersignalen, die von dem Signalspeicher 138 bzw. der Logikschaltung 142 zugeführt werden, gesteuert wird. Das Ausgangssignal des Abbildungsfilters 154 wird einer Addiererschaltung 156 zugeführt und wird mit der "letzten Abbildung" summiert, die in einem Paar von Signalspeichern 150 gehalten wird.
  • Das Ausgangssignal des Addierers 156 ist ein Wort mit 12 Bit, das der "vorliegenden Abbildung" entspricht, welche bei 158 gespeichert ist und nachfolgend in Feld/Zeilenspeicher 110, 112 geschrieben wird (Fig. 11).
  • Das Ausgangssignal der Subtrahiererschaltung 148 ist das Differenzbild, welches bei 164 von 8 zu 7 Bits gerundet wird und dann in Signalspeichern 166, 168 zum nachfolgenden Zuführen zu einem Multiplexer 160 und zu dem Multiplizierer/Aufsummierer 122 (Fig. 5) gehalten wird. Der Multiplexer 160 führt unter einem Steuern eines Vorrichtungsbildauswahlsignals selektiv das Differenzbild und die letzte Abbildung durch einen Treiber 162 einem Vorrichtungsbildbus 226 zu. Daten auf dem Vorrichtungsbildbus 226 können von einer zusätzlichen Schaltung (nicht gezeigt), die einen Teil der Verfolgungseinrichtung zum Ausbilden von Symbolen, wie zum Beispiel einem Dreieck, einem Zeiger, usw., ausbildet, verwendet werden, um den Bediener beim Zielen und Verfolgen zu helfen.
  • Die Absolutwertberechnungsschaltung 120 beinhaltet eine geeignete Schaltung 170 zum Berechnen des Differenzbilds, das aus der Subtrahiererschaltung 148 ausgegeben wird, in einen Absolutwert, zusammen mit einem Signalspeicher 172 und einem Bustreiber 176. Das Ausgangssignal des Bustreibers 176 wird über einen Bus 240 zum übertragen des Absolutwerts des Differenzbilds zugeführt.
  • Es wird nun insbesondere auf Fig. 11 verwiesen, wobei, wie es vorhergehend dargelegt worden ist, die vorliegende Abbildung ein Wort mit 12 Bits ist, welches in Speicher 110, 112 geschrieben wird. Speicher 110, 112 werden von Speicheradressen adressiert, die von einem Abbildungstaktgatter und Speicheradressenzählern zugeführt werden, welche einen Teil der Taktgeber- und Steuerschaltung 106 ausbilden. Daten, die aus dem Rahmenspeicher 110 gelesen werden, werden in einen Zeilenspeicher 182 geladen und werden ebenso dem Eingang eines später beschriebenen Multiplexers 200 zugeführt. Die Zeilendaten werden aus dem Speicher 182 unter Verwendung von Adressensignalen aus der Taktgeber- und Steuerschaltung 106 gelesen und werden dann als die "letzte Abbildung" dem Aktualisieren der rekursiven Referenz (Fig. 5 und 10) zugeführt. Die letzte Abbildung wird ebenso einem Multiplexer 188 zugeführt, nachdem sie von einem Paar von zwei Bildelementverzögerungen 184, 186 verzögert worden ist, von denen jede aus einem Signalspeicher besteht. Ein zweites Eingangssignal an dem Multiplexer 188 wird von Daten ausgebildet, die aus dem Feldspeicher 112 gelesen werden, welche bei 196 um ein Bildelement verzögert worden sind.
  • Daten, die aus dem Feldspeicher 112 gelesen werden, werden ebenso zusammen mit Daten, die aus dem Zeilenspeicher 182 gelesen werden, welche bei 184 um zwei Bildelemente verzögert worden sind, einem Multiplexer 190 zugeführt. Die multiplexten Daten vom Multiplexer 190 werden von einer Subtrahiererschaltung 192 von den multiplexten Daten, die vom Multiplexer 188 abgeleitet werden, subtrahiert, um die Azimutgewichtungsfunktion Wd zu berechnen. Die Gewichtungsfunktionsdaten Wd werden bei 194 gespeichert und werden dann sowohl dem Multiplizierer/Aufsummierer 122 als auch der Absolutwertschaltung 124 zugeführt.
  • Die Daten, die aus dem Feldspeicher 112 gelesen werden, werden einem Multiplizierer 198 zugeführt, nachdem sie bei 196 um ein Bildelement verzögert worden sind, und werden ebenso direkt zu einem anderen Multiplexer 200 gelesen. Die Daten, die aus dem Feldspeicher 112 gelesen werden, werden bei 200 zusammen mit den verzögerten Daten multiplext, die aus dem Zeilenspeicher 182 gelesen werden. Daten werden von dem Speicher 202 unter Verwendung von Adressen gelesen, die von der Taktgeber und Steuerschaltung 106 zugeführt werden. Die Daten, die aus dem Speicher 202 gelesen werden, werden bei 204 um zwei Bildelemente verzögert und werden einer Subtrahiererschaltung 206 zugeführt.
  • Die Daten, die aus den Rahmen- und Feldspeichern 110 bzw. 112 gelesen werden, werden ebenso über einen Multiplexer 200 der Subtrahiererschaltung 206 zugeführt und diese Daten werden von den Daten subtrahiert, die aus dem Zeilenspeicher 202 gelesen werden, um die Elevationsgewichtungsfunktion We zu berechnen. Die Gewichtungsfunktionsdaten We werden bei 208 gespeichert und sowohl dem Multiplizierer/Aufsummierer 122 als auch der Schaltung 124 zugeführt, welche weiterhin ein Paar von herkömmlichen Schaltungen 216, 218 zum Aufnehmen bzw. Berechnen der Absolutwerte der Gewichtungsfunktionen Dd und We aufweist.
  • Eine Addiererschaltung 126 kombiniert die Absolutwerte der Gewichtungsfunktionen und führt diese Werte den Multiplizierern/Aufsummierern 122 zu.
  • Verfolgungsbetriebsarten
  • Die Bildverfolgungseinrichtung wird von dem Mikroprozessor 26 gesteuert, um bei einer Vielfalt von Verfolgungsbetriebsarten oder -anordnungen zu arbeiten. Diese Betriebsarten reichen von einem vollautomatischen Vorgang, welcher sowohl den Korrelations- als auch Schwerpunktprozessor 30, 32 einschließt, die in Verbindung miteinander arbeiten, zu einem vollständig manuellen Steuern von einem oder beiden der Prozessoren 30, 32, das ein manuelles Steuern von verschiedenen Hilfsfunktionen, wie zum Beispiel ein Bemessen eines Fensters, einer Auswahl eines Bildschwellwerts und einer Aktualisierungsratenauswahl einer rekursiven Referenz, beinhaltet.
  • Ein Ableiten sinnvoller Verfolgungszustandsanzeigen für sowohl den Schwerpunkt- als auch den Korrelationsprozessor 30, 32 ist beim Ausführen eines effektiven automatischen Steuerns einer Verfolgungsbetriebsart wichtig. Der Verfolgungszustand für jeden der Prozessoren 30, 32 ist als entweder "zufriedenstellend", "am Rand" oder "Verlust einer Nachführung droht" eingeteilt. Bei taktischen Anwendungen ist eine Störungsbeeinflussung anstelle einer einfachen relativen Zielbewegung im allgemeinen der Grund eines Verlusts einer Verfolgung. Folglich ist ein Schlüsselelement beim Bilden eines Verfolgungszustands das Erfassen einer Störungsbeeinflussung. Die Summe des Differenzbilds für den Korrelationsprozessor 30 und die Kombination der Verfolgungs- und Grenzfensterintensitätshistogrammdaten für den Schwerpunktprozessor 32 sehen effektive Anzeigen vor, daß eine Störungsbeeinflussung auftritt. Diese Störungsbeeinflussungsanzeigen, die mit der Höhe der Korrelationsgraio dientendaten für den Korrelationsprozessor 30 gekoppelt sind, und die Anzahl von Bildelementen, die den Schwellwert für den Schwerpunktprozessor 32 überschreiten, werden verwendet, um den Verfolgungszustand zu bilden. Wenn keine Störungsbeeinflussung angezeigt wird und die anderen Verfolgungszustandsparameterwerte einen bestimmten Minimalwert überschreiten, wird der Verfolgungszustand als "zufriedenstellend" eingeteilt. Wenn eine Störungsbeeinflussung angezeigt wird und die anderen Verfolgungszustandsparameterwerte immer noch den bestimmten Minimalwert überschreiten, wird der Verfolgungszustand als "am Rand" eingeteilt. Wenn entweder die Störungsbeinflussungsanzeige einen bestimmten Schwellwert überschreitet oder die anderen Verfolgungszustandsparameter das Minimalwertkriterium nicht erfüllen, wird der Verfolgungszustand als ein "Verlust einer Nachführung droht" eingeteilt.
  • Diese Verfolgungszustandsanzeigen für die Korrelationsund Schwerpunktprozessoren 30, 32 werden bei verschiedenen Elementen des Steuerns einer Betriebsart für die einzelnen Prozessoren und das gesamte Verfolgungssystem verwendet. Wenn zum Beispiel der Korrelationsverfolgungszustand unter "zufriedenstellend" fällt, wird die rekursive Referenz eingefroren, um zu verhindern, daß eine Störung die Referenz erreicht, und um die zweckmäßige Referenzszene für ein er neutes Erfassen aufzubewahren, wenn die beeinflussende Störung vorbei ist. Wenn ein Schwerpunktverfolgungszustand zu "am Rand" fällt, wird der Schwerpunktfensterbemessungsalgorithmus abgeändert, um zu versuchen, einen Abgleich zwischen einem Verfolgungsfensterbereich und der Anzahl von "Ziel"-Bildelementen zu erzielen, die den Schwellwert überschreiten. Wenn der Schwerpunktverfolgungszustand zu "Verlust einer Nachführung droht" fällt, werden die Fensterabmessung, die Kontrastauswahl und der Schwellwert eingefroren, um eine zweckmäßige erneute Erfassung zu unterstützen, wenn die beeinflussende Störung vorbei ist.
  • Die Bildverfolgungseinrichtung kann in einer festen Schwerpunktbetriebsart betrieben werden, bei welcher der Schwerpunktprozessor 32 alleine verwendet wird, um Verfolgungsratenanweisungen abzuleiten. Eine Erfassung bei dieser Betriebsart wird mit dem Verarbeiten von Verfolgungsfenstern initialisiert, die um die angezeigte Ziellinienstelle zentriert sind. Bei jedem aufeinanderfolgenden Bildrahmen werden Schwellwert- und Zielkontrastberechnungen ausgeführt, um zu bestimmen, ob ein Schwellwert für Ziele eines positiven oder negativen Kontrasts festgestellt werden kann, so daß das Bild, das den berechneten Schwellwert überschreitet, Bildelemente liefern wird, die lediglich Verfolgungsfensterhistogrammintensitätswerten entsprechen, und keine Bildelemente, die lediglich Grenzfensterhistogrammintensitätswerten entsprechen (d.h., ein "zufriedenstellender" Verfolgungszustand). Wenn kein geeigneter Schwellwert festgestellt werden kann, werden die Fensterabmessungen um einen vorab ausgewählten Faktor, z.B. 40%, für den nächsten Bildrahmen erhöht. Wenn ein geeigneter Schwellwert festgestellt wird, wird eine Überprüfung ausgeführt, um zu bestimmen, ob sich die angezeigte Zielschwerpunktstelle innerhalb einer leicht programmierbaren bestimmten Anzahl von Bildelementen von der Ziellinienstelle befindet. Diese Überprüfung wird ausgeführt, um ein Nachführen auf Störobjekten anstelle des Ziels von Interesse zu verhindern. Wenn das ausgewählte Ziel diesen Test nicht besteht, wird eine Wachstumsrate um den vorab ausgewählten Faktor fortgesetzt. Ansonsten wird ein Zielkontrastauswahlmerker gesetzt (d.h., der Zielkontrast wird bestimmt) und wird ein Verfolgen im Raster initialisiert.
  • Während der festen Schwerpunktverfolgung werden die Bildschwellwerte (die den ausgewählten Zielkontrast geben), die Verfolgungsfensterabmessungen und die Verfolgungzustandsanzeige andauernd aktualisiert. Wie es vorhergehend erwähnt worden ist, wird die Schwerpuntverfolgungszustandsanzeige für ein gesamtes Steuern des Schwerpunktprozessors bei der Punktverfolgungsbetriebsart verwendet. Wenn der Verfolgungszustand zu "am Rand" fällt, wird erwartet, daß eine verhältnismäßig mäßige Menge einer Hintergrundstörung dem Bildschwellwert überschreitet und der Fensterabmessungssteueralgorithmus wird abgeändert, um Verfolgungswechselwirkungen zu minimieren. Wenn der Verfolgungszustand zu "Verlust einer Nachführung droht" fällt, ist die Störungsbeeinflussung stärker oder ist das Ziel nicht unterscheidbar, und ein Leerlaufen wird initialisiert.
  • Die Bildverfolgungseinrichtung kann ebenso in einer festen Korrelationsbetriebsart betrieben werden, bei welcher der Korrelationsprozessor 30 alleine verwendet wird, um Verfolgungsratenanweisungen abzuleiten. Bei dieser Betriebsart kann die Verfolgungseinrichtung als eine Verfolgungseinrichtung für eine Szene oder ein besonderes Ziel betrieben werden. Obgleich es möglich ist, diese Funktion mit Korrelationsverarbeitungsfenstern einer festen Abmessung durchzuführen, ist es erwünscht, die Verfolgungsfenster derart zu bemessen, daß die Zielbildgradienten maximiert werden, welche die Information enthalten, die bezüglich einer Korrelationsverfolgung grundlegend ist. Dies gilt sowohl für ein Ziel- als auch Szeneverfolgen. Anders ausgedrückt, wenn ein bedeutender Teil eines Korrelationsfensters einer Szene einer festen Abmessung sanfte Merkmale enthält, wird die sich ergebende Verfolgungswirksamkeit durch ein Verarbeiten dieses Teils der Bildszene verschlechtert statt verbessert. Folglich ist es bevorzugt, ein automatisches Bemessen eines Korrelationsfensters bei der Korrelationsverfolgungsbetriebsart zu verwenden, um einen maximalen Wirkungsgrad zu erzielen. Wenn es erwünscht ist, Szenen anstelle von Zielen zu verfolgen, kann eine größere Anfangsfensterabmessung verwendet werden, um anfänglich ein vernünftiges Teilsichtfeld des Sensors 22 zu umfassen. Die Anfangsfensterabmessung bei der Flächenverfolgungsbetriebsart sollte derart ausgewählt sein, daß sie eine vernünftige Menge einer Szeneintensitätsgradientenin formation enthält, wenn jedoch die Situation mit einer größeren Fensterabmessung verbessert wird, wird die größere Abmessung während dem Erfassungsverfahren automatisch festgestellt.
  • Ein Erfassen bei der Korrelationsverfolgungsbetriebsart wird mit den Verarbeitungsfenstern für jedes Feld initiahsiert, die um die angezeigte Ziellinienstelle zentriert sind. Wenn das Erfassungsverfahren das erste Mal initialisiert wird, wird die gegenwärtige Szene in die rekursive Referenz geladen. Die Aktualisierungsrate einer rekursiven Referenz wird dann programmiert, um sich von W&sub1; = 1/2 zu verringern, so daß die Rauschfiltereigenschaften optimiert werden. Nach zwei Rahmen ist W&sub1; kleiner als 1/2 und für jeden Rahmen danach wird die Fensterabmessung in sich erhöhenden Schritten, z.B. 25%, in jeder Abmessung erhöht, bis eine maximale Abmessung erreicht ist oder sich der Mittelwert der Gradientenfunktion über den Verfolgungsfenstern verringert. Wenn die Fensterabmessung gebildet wird, wird ein Abtasten im Raster initialisiert. Für den Korrelationsprozessor 30 wird ein Verfolgen im Raster durch erneutes Positionieren der Verfolgungsfenster und der rekursiven Referenz innerhalb dem Bildraster durchgeführt, um den Korrelationsverfolgungsfehler auf null zu setzen. Ein Verfolgungszustand wird dann für jeden Bildrahmen berechnet und wenn dieser Zustand für zwei aufeinanderfolgende Rahmen "zufriedenstellend" ist, wird ein Verfolgungsgültigkeitsmerker gesetzt, wird ein Verfolgen im Raster beendet und wird ein aktives Verfolgen initialisiert. Wenn kein gültiges Verfolgen nach 16 Rahmen eines Verfolgens im Raster erzielt wird, wird die rekursive Referenz erneut geladen und wird das Erfassungsverfahren erneut initialisiert.
  • Während eines Flächenverfolgens werden die Fensterabmessungen durch andauerndes Schwanken der einzelnen Gradientenfensterränder in Folge aktualisiert, um den Mittelwert der Gradientfenfunktion über dem Gradientenfenster zu maximieren. Das Gradientenfenster wird dann derart bemessen, daß ein Rand von N Bildelementen zwischen den Verfolgungsfensterrändern und den Gradientenfensterrandstellen erzeugt wird, die ein Maximum für den Mittelwert der Gradientenfunktion erzeugen.
  • Während der Korrelationsverfolgungsbetriebsart wird die Korrelationsverfolgungszustandsanzeige für ein gesamtes Steuern des Korrelationsprozessors 30 verwendet. Wenn ein Verfolgungszustand zu "am Rand" abfällt, tritt eine mäßige Störungsbeeinflussung auf, und obgleich es nicht erwartet wird, daß sich die Verfolgungswirksamkeit beträchtlich verschlechtert, wird die rekursive Referenz eingefroren, um zu verhindern, daß die Störung die Referenz erreicht.
  • Wenn die Verfolgung zu "Verlust einer Nachführung droht" abfällt, ist die Störungsbeeinflussung stärker und ein Leerlaufzustand wird erreicht. Während dem Leerlaufzustand werden die Verfolgungsfensterabmessungen und die rekursiven Referenzen eingefroren. Ein Ausführen des Leerlaufzustands ist zu dem zuvor beschriebenen unter Bezugnahme auf die Schwerpunktverfolgungsbetriebsart ähnlich. Wenn sich der Verfolgungszustand während des Leerlaufintervalls zu einem besseren als "Verlust einer Nachführung droht" verbessert, wird der aktive Verfolgungszustand automatisch erneut initialisiert. Ansonsten wird das Korrelationsverfolgungserfassungsverfahren erneut initialisiert.
  • Die Flächenverfolgungszustandsanzeige ist ein genauer Meßwert der Qualität der "Übereinstimmung" bezüglich der Referenzabbildung. Es gibt zwei bedeutende Aspekte bezüglich dieser Anzeige. Als erstes ist der Mittelwert der Summe der Differenz im Bild über dem Verfolgungsfenster ein direkter Meßwert der Differenz zwischen der ankommenden Szene und der Referenz. Als zweites sind sowohl eine Höhe als auch der Mittelwert der Gradientenfunktion über dem Verfolgungsfenster Meßwerte des Verfolgungsinformationsgehalts der Referenz. Wenn dieser Informationsgehalt zu klein wird, kann eine schlechte Verfolgungswirksamkeit erwartet werden, und ein Meßwert der Szene-Referenz-Übereinstimmung ist bedeutungslos. Somit dient die gesamte Verfolgungszustandsanzeige als das Übereinstimmungsqualitätsausgangssignal.
  • Schließlich ist die Bildverfolgungseinrichtung ebenso in der Lage, in einer automatischen oder "konkurrierenden" Verfolgungsbetriebsart zu arbeiten. Bei der automatischen Betriebsart arbeiten die Korrelations- und Schwerpunktprozessoren 30, 32 in Verbindung miteinander und wird der Prozessor, der die "beste" Wirksamkeit liefert, für das aktive Verfolgungssteuern ausgewählt. Das Steuern der Betriebsart für beide Prozessoren 30, 32 bei der automatischen Verfolgungsbetriebsart ist zu der zuvor beschriebenen für die festen Schwerpunktverfolgungs- und festen Korrelationsverfolgungsbetriebsarten ähnlich. Da es wichtig ist, bei der automatischen Verfolgungsbetriebsart das sich bewegende Ziele von dem Hintergrund zu isolieren, ist die anfängliche Korrelationsverfolgungsfensterabmessung zu der identisch, die für den Schwerpunktprozessor 32 bei der festen Schwerpunktverfolgungsbetriebs art verwendet wird.
  • Es gibt bei der arbeitenden Verfolgungsbetriebsart drei Verfolgungszustände: Initialisieren einer Verfolgung, Aufrechterhalten einer Verfolgung und Leerlaufen einer Verfolgung. Auf eine Weise, die zu der ähnlich ist, die für die festen Verfolgungsbetriebsarten verwendet wird, werden die Verfolgungszustandssteuerübergänge von der Verfolgungszustandsanzeige bestimmt, die für die zwei Prozessoren 30, 32 abgeleitet wird. Eine Verfolgungsgültigkeitsanzeige wird zu der Zeit erzeugt, zu der ein zufriedenstellender Verfolgungszustand das erste Mal gebildet wird, nachdem die Erfassungsabfolge für jeden Prozessoren 30, 32 initialisiert ist. Der Prozessor ist dann zu einem aktiven Verfolgungssteuern in der Lage. Der Prozessor mit dem höchsten Verfolgungszustand wird für ein aktives Verfolgungssteuern ausgewählt und in dem Fall, daß der Verfolgungszustand für beide Prozessoren 30, 32 gleich ist, wenn die Verfolgungsgültigkeitsanzeigen das erste Mal bei dem Verfolgungsinitialisierungszustand erzielt werden, geht ein Steuern zu dem Schwerpunktprozessor 32, wenn der Schwerpunktfensterbereich kleiner als eine ausgewählte Anzahl von quadratischen Bildelementen ist. Nach einem Eintritt in den Verfolgungsaufrechterhaltungs zustand gehen Verfolgungszustands-"Bindungen" zu dem Korrelationsprozessor 30, wenn der Korrelations fensterbereich größer als eine vorab ausgewählte Anzahl von quadratischen Bildelementen ist.
  • Der Verfolgungsinitialisierungszustand wird bezeichnet, wenn ein Verfolgen das erste Mal über eine Verfolgungsinitialisierungsanweisung initialisiert wird oder wenn eine nachfolgende Wiedererfassungsanweisung für einen der Prozessoren bewirkt, daß lediglich ein Prozessor eine Verfolgungsgültigkeitsanzeige liefert. Ein Übergang von dem Verfolgungsinitialisierungszustand zu dem Verfolgungsaufrechterhaltungszustand tritt kurz nachdem auf, daß beide Prozessoren 30, 32 eine Verfolgungsgültigkeitsanzeige liefern und mindestens einer der Prozessoren eine Verfolgungszustandsanzeige aufweist, die besser als "Verlust einer Nachführung droht" ist. Wenn lediglich ein Prozessor eine Verfolgungsgültigkeitsanzeige aufweist und seine Verfolgungszustandsanzeige auf "Verlust einer Nachführung droht" fällt, wird der Verfolgungsinitialisierungszustand zu dem Leerlaufzustand verlassen.
  • Wie es vorhergehend erwähnt worden ist, wird der Prozessor mit dem höchsten Verfolgungszustand ausgewählt, um aktive Verfolgungsanweisungen vorzusehen. Der inaktive Prozessor wird dann in einer Verfolgungsbetriebsart im Raster betrieben, bei der das Verfolgungsfenster andauernd in dem Bildraster positioniert ist, um den angezeigten Verfolgungsfehler auf null zu setzen. Wenn diese Situation auftritt, wird andauernd eine Überprüfung ausgeführt, um zu bestimmen, ob die Mitte des Schwerpunktverfolgungsfensters in das Korrelationsverfolgungsfenster fällt. Wenn es dies nicht tut, wird es angenommen, daß das inaktive Fenster das zweckmäßige Ziel nicht verfolgt, und die Verfolgungsgültig keitsanzeige für den inaktiven Prozessor wird verworfen. Die Verfolgungsfenstermitte für diesen Prozessor wird dann erneut positioniert, um mit der Mitte des Fensters für den aktiven Prozessor übereinzustimmen, und das Wiedererfassungsverfahren wird für den inaktiven Prozessor initialisiert.
  • Der Verfolgungsaufrechterhaltungszustand wird zu dem Leerlaufzustand verlassen, wenn der Verfolgungszustand sowohl für den Korrelations- als auch Schwerpunktprozessor 30, 33 zu "Verlust einer Nachführung droht" fällt. Der Verfolgungsaufrechterhaltungszustand wird zu dem Verfolgungsinitialisierungszustand verlassen, wenn der inaktive Prozessor zu dem Wiedererfassungszustand gezwungen wird. Ein Ausführen des Leerlaufzustands ist ähnlich zu dem, der für die Punktverfolgungsbetriebsart beschrieben worden ist.
  • Automatische Zielerfassung
  • Die vorliegende Bildverfolgungseinrichtung kann in einer "Differenzbild"-Betriebsart betrieben werden, bei welcher die Verfolgungseinrichtung ein sich bezüglich der Szene oder einem Hintergrund bewegendes Ziel erfaßt und automatisch erfaßt. Wie es vorhergehend beschrieben worden ist, ist der Absolutwert des Differenzbilds, das aus dem Korrelationsprozessor 30 ausgegeben wird, als ein Nebenprodukt der Korrelationsverarbeitungsfunktion verfügbar und dieses Bildausgangssignal kann dem Schwerpunktprozessor 32 zugeführt werden. Wenn der Korrelationsprozessor 30 verwendet wird, um eine feststehende Szene zu verfolgen, wird ein sich bezüglich dieser Szene bewegendes Ziel in dem Differenzbild nach oben zeigen. Somit werden sich bewegende Ziele durch eine Verarbeitung dieses Bildausgangssignals mit dem Schwerpunktprozessor 32 erfaßt und automatisch erfaßt, während der Korrelationsprozessor 30 eine feststehende Szene verfolgt. In diesem Fall wird ein sich bewegendes Ziel in dem Differenzbild erfaßt, wenn die Höhe des Absolutwerts des Differenzbilds einen Nennschwellwert überschreitet. Ein Verfolgen im Raster wird dann mit dem Schwerpunktprozessor 32 initialisiert und der Teil des Sichtfelds, der in dem Schwerpunktverfolgungsfenster enthalten ist, wird aus der Korrelationsverarbeitung ausgeschlossen. Unmittelbar einem Initialisieren eines Schwerpunktverfolgens im Raster folgend werden Zielverfolgungsraten aus den Schwerpunktfensterpositionsänderungen in dem Sichtfeld berechnet.
  • Wenn Verfolgungsratenschätzwerte einmal erzielt worden sind, werden eine Hintergrund- und Differenzbildverfolgung beendet und wird die Korrelationsverfolgungsfensterabmessung derart bemessen und positioniert, daß sie mit dem Schwerpunktfenster übereinstimmt. Das Verfolgungssystem wird dann angewiesen, sich mit den geschätzten Sichtfeldraten zu bewegen, und ein Verfolgen wird in einer der festen Zielverfolgungsaus gestaltungen initialisiert.
  • Verfolgen mit einem niedrigen SNR
  • Die Bildverfolgungseinrichtung kann in einer Betriebsart zum Erfassen und Verfolgen kleiner Ziele eines niedrigen Kontrasts unter Zuständen eines sehr niedrigen SNR (Signal/Rauschverhältnisses) betrieben werden. In einem stetigen Zustand wird das SNR des Zielkontrasts für ein Bild, das von der Korrelationsfunktion einer rekursiven Referenz verarbeitet wird, verbessert um:
  • wobei W&sub1; der Aktualisierungsratenfaktor einer rekursiven Referenz ist.
  • Somit wird durch Zuführen der rekursiven Referenz einer Bildkorrelation zu dem Eingang des Schwerpunktprozessors 32 das SNR des Bilds für den Schwerpunktprozessor 32 wesent lich verbessert. Tatsächlich wird das SNR des Zielkontrasts um die Quadratwurzel von 3 für einen Aktualisierungsratenfaktor einer rekursiven Referenz von 1/2 verbessert. Jedoch verringert ein Verwenden des rekursiven Referenzbilds für ein Schwerpunktverfolgen die verwirklichbare Verfolgungsschleifenbandbreite, da die Bildmittelungsverzögerung innerhalb der geschlossenen Verfolgungsschleife enthalten ist. Diese Beschränkung kann jedoch unter Verwendung der Korrelationsprozessorfehlereingangssignale vermieden werden, die normalerweise Fehlersignale an der Funktion zum Entfernen einer Abweichung in Verbindung mit den Schwerpunkt fehlern vorsehen.
  • Die Korrelationsfehler sind ein Meßwert des Rahmen-zu- Rahmen-Fehlers zwischen der Zielstelle in der ankommenden Szene und der Referenzszene. Die Schwerpunktfehler sind ein Meßwert der Zielstelle in der Referenzszene bezüglich dem Schwerpunktfenster. Die Kombination dieser zwei Fehler bildet eine komplementäre Funktion in dem Frequenzbereich aus.
  • Zum Beispiel ist die Schwerpunktfehlerübertragungsfunktion definiert durch θecent θtarget
  • wobei τ eine Zweikonstante ist, die durch die rekursive Referenz einer Korrelation durch das Aktualisieren der rekursiven Referenz einer Korrelation bestimmt ist. Auf eine ähnliche Weise ist die Korrelationsfehlerübertragungsfunktion definiert durch θecent θtarget
  • Somit wird, wenn die zwei vorhergehenden Übertragungsfunktionen kombiniert werden:
  • θe = θecent + θecorr
  • oder,
  • Diese komplementäre Funktion sieht ebenso einen Meßwert der Zielstelle bezüglich dem Schwerpunktfenster ohne die Verzögerung vor, die dem Filtervorgang der rekursiven Referenz zugeordnet ist. Bei dieser Betriebsart wird die Abfolge zum anfänglichen Erfassen eines Schwerpunkts bis zwei Bildrahmen nicht ausgeführt, nachdem die rekursive Referenz einer Korrelation geladen ist. Die Schwerpunktfenstersteuerfunktionen sind zu denen ähnlich, die für die feste Schwerpunktverfolgungsbetriebsart beschrieben worden sind, und Verfolgungszustandsübergänge werden alleine durch die Schwerpunktverfolgungs zustands anzeigen bestimmt. Vor dem Empfangen einer Schwerpunktverfolgungsgültigkeit (welche ein tatsächliches Verfolgen initialisiert) ist die Stelle einer rekursiven Referenz einer Korrelation festgelegt und werden die Korrelationsfensterränder auf einer Oberseite der Schwerpunktfensterränder positioniert. Wenn ein aktives Verfolgen initialisiert wird, sind die Korrelationsfensterränder immer noch auf einer Oberseite der Schwerpunktfen sterränder positioniert, aber die Stelle einer rekursiven Referenz einer Korrelation wird derart bewegt, daß sie der Schwerpunkt fenstermittenstelle entspricht.
  • Verfolaen einer komplementären Betriebsart
  • Die Verfolgungseinrichtung kann ebenso in einer komplementären Betriebsart betrieben werden, welche in vielen Hinsichten zu der zuvor beschriebenen Verfolgungsbetriebsart eines niedrigen SNR ähnlich ist. Bei der komplementären Betriebsart wird das Korrelationsreferenzbild zu dem Schwerpunktprozessor 32 übertragen und weisen die Verfolgungsfehlersignale die Summe der Schwerpunktfehlersignale und die Korrelationsfehlerausdrücke auf, die normalerweise als Eingangssignale bei der Korrelationsabweichungskompensationsberechnung (Fig. 8) verwendet werden. Diese Verfolgungsbetriebsart liefert Zielschwerpunktreferenzverfolgungsfehler. Die Schwerpunktverfolgungsjittercharakteristiken werden unter Verwendung eines Bilds mit einem verbesserten SNR verbessert und die Fehlermeßwertbandbreite wird unter Verwendung der Korrelationsfehlerausdrücke aufrechterhalten.
  • Ein Verfolgen wird in der festen Korrelationsverarbeitungsbetriebsart initialisiert und nachdem ein bezeichnetes Ziel in der rekursiven Referenz einer Korrelation gebildet ist, wird die Korrelationsreferenz in dem Sichtfeld derart positioniert, daß der Schwerpunktfehler auf null gesetzt wird. Wenn dies einmal durchgeführt worden ist, werden die aufsummierten Fehlerausdrücke, die bei der Korrelationsabweichungskompensationsberechnung berechnet werden, durch die Schwerpunktfehler ersetzt. Wie es in dem Fall für die automatische Betriebsart gewesen ist, wird ein Verfolgungszustandssteuern unter Verwendung von Verfolgungszustandsanzeigen für die zwei Prozessoren 30, 32 ausgeführt. Ein Korrelationsverfolgungszustand ist jedoch das primäre Steuern. Das heißt, Übergänge zu Leerlaufen oder Verlust von Nachführzuständen werden als eine Funktion des Korrelationsverfolgungszustands ausgeführt. Wenn sich der Schwerpunktverfolgungszustand von "zufriedenstellend" verschlechtert, wird ein Korrelationsverfolgen wiederhergestellt.
  • Gemäß den vorhergehenden Ausführungen schafft die Erfindung eine vollautomatische Zweibetriebsarten-Bildverfolgungseinrichtung, die eine wesentlich verbesserte Wirksamkeit und Verfolgungsgenauigkeit aufweist. Viele Änderungen und Ausgestaltungen des bevorzugten Ausführungsbeispiels, das ausgewählt worden ist, um die vorliegende Erfindung darzustellen, können durch Fachleute durchgeführt werden, ohne die Gedanken und den Umfang des vorliegenden technischen Beitrags zu verlassen. Demgemäß versteht es sich, daß das hierin beschriebene bevorzugte Ausführungsbeispiel lediglich veranschaulichend ist und daß der hierdurch gesuchte und zu gewährende Schutz so betrachtet werden sollte, daß er sich zu dem beanspruchten Gegenstand und allen seinen Äquivalenten ausdehnt.

Claims (5)

1. Verfahren eines Bestimmens einer Korrelationsverfolgungsqualität in einem Korrelationsverfolgungssystem eines Typs, welches Verfolgungsqualitätsfehlersignale aus eingegebenen elektromagnetischen Bildsignalen Vij(k) erzeugt, die verwendet werden, um einen Bildrahmen k einer zweidimensionalen Bildebene zu erzeugen, die Koordinaten (ε, η) aufweist, wobei ε eine Elevation darstellt und η einen Azimut darstellt, wobei die Bildebene durch eine Mehrzahl von Bildelementen definiert ist, die eine diskrete Stelle (i, j) in der Bildebene entlang Koordinaten ε bzw. η aufweisen, und bei dem eine Korrelation über ein Abtastfenster durchgeführt wird, das durch NXM Bildelemente entlang Koordinaten ε bzw. η definiert ist, wobei das Verfahren die folgenden Schritte aufweist:
(a) rekursives Erzeugen eines Referenzabbildungswerts für jedes Bildelement in Übereinstimmung mit der Beziehung
MAPij(k)=W1Vij(k)+(1-W1)MAPij(k-1),
wobei W1 ein Gewichtungsfaktor ist, der einen Wert 0≤W1≤1 aufweist;
(b) Subtrahieren der Referenzabbildungswerte MAPij(k) von den Bildsignalen Vij(k) eines nachfolgenden Rahmens, um ein Differenzbild ΔVij(k) zu erzeugen;
(c) Erzeugen einer ersten Gewichtungsfunktion Weij(k), die sich auf relative Werte von Paaren von Bildelementen entlang der ε-Koordinate bezieht;
(d) Erzeugen einer zweiten Gewichtungsfunktion Wdij(k), die sich auf relative Werte von Paaren von Bildelementen entlang der η-Koordinate bezieht;
(e) Erzeugen erster bzw. zweiter Korrelationsfehlersignale δ'd(k) bzw. δ'e(k) für jeden Bildebenenrahmen unter Verwendung der ersten und zweiten Gewichtungsfunktionen Weij(k) und Wdij(k);
gekennzeichnet durch
(f) ein Definieren von Grenzfenstern, die das Verfolgungsfenster mindestens teilweise umgeben, und ein Summieren des Werts des Differenzbilds über das Verfolgungsfenster und Grenzfenster für jeden Bildebenenrahmen;
(g) ein Erzeugen einer Gradientenfunktion Gfij(k) für jedes Bildelement in einem Gradientenfenster, das durch YxZ Bildelemente definiert ist, in Übereinstimmung mit der Beziehung
GFij(k)=[Weij(k)]²+[Wdij(k)]²;
(h) ein Summieren der Gradientenfunktion Gfij(k) über das Gradientenfenster für jede Bildebene; und
(i) ein Erzeugen einer Anzeige einer Verfolgungsqualität unter Verwendung der summierten Werte des Differenzbilds ΔVij(k) und der summierten Gradientenfunktion GFij(k).
2. Verfahren nach Anspruch 1, bei dem Schritt (i) die folgenden Unterschritte aufweist:
(ii) Dividieren des summierten Werts des Verfolgungsfenster differenzbilds ΔVij(k) durch die Fläche des Verfolgungsfensters und der summierten Werte des Grenzfensterdifferenzbilds durch die Fläche des betreffenden Grenzfensters, und
(i2) Vergleichen der quantitativen Ergebnisse von Unterschritt (i1) mit im voraus ausgewählten Referenzwerten, wobei die Beziehung des Ergebnisses zu dem Referenzwert eine Anzeige einer Korrelationsverfolgungsqualität vorsieht.
3. Verfahren nach Anspruch 2, bei dem Schritt (i) weiterhin die folgenden Unterschritte aufweist:
(i3) Dividieren der summierten Gradientenfunktion GFij(k) durch die Fläche des Gradientenfensters,
(i4) Vergleichen der Höhe der summierten Gradientenfunktion Gfij(k) mit einem im voraus ausgewählten Referenzwert, und
(i5) Vergleichen des quantitativen Ergebnisses von Schritt (i3) mit einem im voraus ausgewählten Referenzwert, wobei der in Unterschritten (i4) und (i5) durchgeführte Vergleich eine Anzeige der Korrelationsverfolgungsqualität vorsieht.
4. Verfahren nach Anspruch 1, 2 oder 3, bei dem die erste Gewichtungsfunktion Weij(k) durch die Beziehung
definiert ist, wobei Δe die Abmessung jedes Bildelements in dem Bild entlang der ε-Koordinate ist, und die zweite Gewichtungsfunktion durch die Beziehung
definiert ist, wobei Δd die Abmessung jedes Bildelements in der Bildebene entlang der η-Koordinate ist.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die ersten und zweiten Korrelationsfehlersignale δ'd(k) und δ'e(k) durch die Beziehungen
definiert sind, wobei
ist, wobei Ne die Anzahl von Bildelementen in der Elevation und Nd die Anzahl von Bildelementen im Azimut ist und wobei
und
ist.
DE3855830T 1987-08-24 1988-07-18 Zweimoden-Videotracker Expired - Lifetime DE3855830T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/088,772 US4849906A (en) 1987-08-24 1987-08-24 Dual mode video tracker

Publications (2)

Publication Number Publication Date
DE3855830D1 DE3855830D1 (de) 1997-04-17
DE3855830T2 true DE3855830T2 (de) 1997-10-16

Family

ID=22213359

Family Applications (2)

Application Number Title Priority Date Filing Date
DE3855830T Expired - Lifetime DE3855830T2 (de) 1987-08-24 1988-07-18 Zweimoden-Videotracker
DE88907929T Expired - Lifetime DE3886728T2 (de) 1987-08-24 1988-07-18 Zweimoden-videotracker.

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE88907929T Expired - Lifetime DE3886728T2 (de) 1987-08-24 1988-07-18 Zweimoden-videotracker.

Country Status (9)

Country Link
US (1) US4849906A (de)
EP (2) EP0328621B1 (de)
JP (1) JP2644313B2 (de)
DE (2) DE3855830T2 (de)
ES (1) ES2012540A6 (de)
IL (1) IL87213A (de)
NO (1) NO175797C (de)
TR (1) TR23463A (de)
WO (1) WO1989002085A1 (de)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5233688A (en) * 1988-03-31 1993-08-03 Kabushiki Kaisha Toshiba Method and apparatus for process monitoring and method of constructing network diagram for process monitoring
US5005147A (en) * 1988-12-30 1991-04-02 The United States Of America As Represented By The Administrator, The National Aeronautics And Space Administration Method and apparatus for sensor fusion
US5034986A (en) * 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
US4958224A (en) * 1989-08-15 1990-09-18 Hughes Aircraft Company Forced correlation/mixed mode tracking system
US5062056A (en) * 1989-10-18 1991-10-29 Hughes Aircraft Company Apparatus and method for tracking a target
US5265198A (en) * 1989-10-23 1993-11-23 International Business Machines Corporation Method and processor for drawing `polygon with edge`-type primitives in a computer graphics display system
US5175694A (en) * 1990-02-08 1992-12-29 The United States Of America As Represented By The Secretary Of The Navy Centroid target tracking system utilizing parallel processing of digital data patterns
BR9004680A (pt) * 1990-09-19 1991-09-10 Ibm Brasil Ltda Aparelho para sensoramento,controle e monitoramento,em tempo real para reduzir qualquer tempo de detecao de erro de processo e consequente correcao,sem disconectar totalmente o sistema ao qual esta conectado,independentemente de protocolos de comunicacao,metodos para implementa-lo e utiliza-lo e sistema que inclui tal aparelho
US5122990A (en) * 1991-02-01 1992-06-16 Rowe-Deines Instruments Incorporated Bottom tracking system
US5355325A (en) * 1992-06-24 1994-10-11 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for correlating object measurements with object measurement estimates
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
US6122405A (en) * 1993-08-27 2000-09-19 Martin Marietta Corporation Adaptive filter selection for optimal feature extraction
US5602760A (en) * 1994-02-02 1997-02-11 Hughes Electronics Image-based detection and tracking system and processing method employing clutter measurements and signal-to-clutter ratios
DE69507963T2 (de) * 1994-11-04 1999-10-07 Telemedia As Verfahren in einem bildaufnahmesystem
IT1274405B (it) * 1995-04-28 1997-07-17 San Raffaele Centro Fond Dispositivo di posizionamento e centramento automatico di testa ottica di microscopio
US6965396B1 (en) * 1995-06-28 2005-11-15 The Johns Hopkins University Video-centroid integrated circuit
US5872857A (en) * 1996-05-22 1999-02-16 Raytheon Company Generalized biased centroid edge locator
ATE336011T1 (de) 1998-07-13 2006-09-15 Contraves Ag Verfahren zur verfolgung bewegter objekte anhand spezifischer merkmale
US6195475B1 (en) * 1998-09-15 2001-02-27 Hewlett-Packard Company Navigation system for handheld scanner
US7177447B2 (en) * 1999-02-23 2007-02-13 Lockheed Martin Corporation Real-time multi-stage infrared image-based tracking system
US6924806B1 (en) * 1999-08-06 2005-08-02 Microsoft Corporation Video card with interchangeable connector module
US6847358B1 (en) * 1999-08-06 2005-01-25 Microsoft Corporation Workstation for processing and producing a video signal
US7392287B2 (en) 2001-03-27 2008-06-24 Hemisphere Ii Investment Lp Method and apparatus for sharing information using a handheld device
US6917721B2 (en) * 2001-07-16 2005-07-12 Hewlett-Packard Development Company, L.P. Method and apparatus for sub-pixel edge detection
US7136506B2 (en) * 2003-03-03 2006-11-14 Lockheed Martin Corporation Correlation based in frame video tracker
US7657059B2 (en) * 2003-08-08 2010-02-02 Lockheed Martin Corporation Method and apparatus for tracking an object
US7652723B1 (en) 2004-04-19 2010-01-26 Video Accessory Corporation Composite video signal correction unit for video imaging and video recording systems
US20070092110A1 (en) * 2004-11-08 2007-04-26 Li-Qun Xu Object tracking within video images
US20060245500A1 (en) * 2004-12-15 2006-11-02 David Yonovitz Tunable wavelet target extraction preprocessor system
WO2009153794A1 (en) 2008-06-19 2009-12-23 Sync-Rx, Ltd. Stepwise advancement of a medical tool
US11064964B2 (en) 2007-03-08 2021-07-20 Sync-Rx, Ltd Determining a characteristic of a lumen by measuring velocity of a contrast agent
US10716528B2 (en) 2007-03-08 2020-07-21 Sync-Rx, Ltd. Automatic display of previously-acquired endoluminal images
JP5639764B2 (ja) 2007-03-08 2014-12-10 シンク−アールエックス,リミティド 運動する器官と共に使用するイメージング及びツール
US9375164B2 (en) 2007-03-08 2016-06-28 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
US9629571B2 (en) 2007-03-08 2017-04-25 Sync-Rx, Ltd. Co-use of endoluminal data and extraluminal imaging
US9968256B2 (en) 2007-03-08 2018-05-15 Sync-Rx Ltd. Automatic identification of a tool
US8542900B2 (en) 2007-03-08 2013-09-24 Sync-Rx Ltd. Automatic reduction of interfering elements from an image stream of a moving organ
US11197651B2 (en) 2007-03-08 2021-12-14 Sync-Rx, Ltd. Identification and presentation of device-to-vessel relative motion
US10362962B2 (en) 2008-11-18 2019-07-30 Synx-Rx, Ltd. Accounting for skipped imaging locations during movement of an endoluminal imaging probe
US9974509B2 (en) 2008-11-18 2018-05-22 Sync-Rx Ltd. Image super enhancement
US8855744B2 (en) 2008-11-18 2014-10-07 Sync-Rx, Ltd. Displaying a device within an endoluminal image stack
US9101286B2 (en) 2008-11-18 2015-08-11 Sync-Rx, Ltd. Apparatus and methods for determining a dimension of a portion of a stack of endoluminal data points
US11064903B2 (en) 2008-11-18 2021-07-20 Sync-Rx, Ltd Apparatus and methods for mapping a sequence of images to a roadmap image
US9144394B2 (en) 2008-11-18 2015-09-29 Sync-Rx, Ltd. Apparatus and methods for determining a plurality of local calibration factors for an image
US9095313B2 (en) 2008-11-18 2015-08-04 Sync-Rx, Ltd. Accounting for non-uniform longitudinal motion during movement of an endoluminal imaging probe
EP2238889B1 (de) 2009-04-01 2011-10-12 Tobii Technology AB Adaptive Kamera und Illuminator-Eyetracker
JP6099640B2 (ja) 2011-06-23 2017-03-22 シンク−アールエックス,リミティド 管腔の背景の鮮明化
CA2875346A1 (en) 2012-06-26 2014-01-03 Sync-Rx, Ltd. Flow-related image processing in luminal organs
US11900633B2 (en) * 2021-01-27 2024-02-13 The Boeing Company Vehicle pose determination systems and methods

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4189747A (en) * 1967-09-15 1980-02-19 Hughes Aircraft Company Infrared tracking system
US4133004A (en) * 1977-11-02 1979-01-02 Hughes Aircraft Company Video correlation tracker
SE411400B (sv) * 1977-11-02 1979-12-17 Saab Scania Ab For foljning av ett objekt avsedd korrelationsfoljare
US4270143A (en) * 1978-12-20 1981-05-26 General Electric Company Cross-correlation video tracker and method
US4409661A (en) * 1979-08-22 1983-10-11 The United States Of America As Represented By The Secretary Of The Air Force Aimpoint selection processor
US4549211A (en) * 1983-03-31 1985-10-22 Hughes Aircraft Company Four-quadrant gate-sizing technique
US4719584A (en) * 1985-04-01 1988-01-12 Hughes Aircraft Company Dual mode video tracker

Also Published As

Publication number Publication date
EP0528448B1 (de) 1997-03-12
WO1989002085A1 (en) 1989-03-09
DE3855830D1 (de) 1997-04-17
EP0528448A2 (de) 1993-02-24
NO891632L (no) 1989-04-20
JP2644313B2 (ja) 1997-08-25
DE3886728T2 (de) 1994-04-28
ES2012540A6 (es) 1990-04-01
US4849906A (en) 1989-07-18
NO175797C (no) 1994-12-07
NO175797B (no) 1994-08-29
EP0328621A1 (de) 1989-08-23
IL87213A0 (en) 1988-12-30
DE3886728D1 (de) 1994-02-10
EP0528448A3 (de) 1993-04-14
NO891632D0 (no) 1989-04-20
IL87213A (en) 1992-09-06
JPH02501163A (ja) 1990-04-19
TR23463A (tr) 1989-12-29
EP0328621B1 (de) 1993-12-29

Similar Documents

Publication Publication Date Title
DE3855830T2 (de) Zweimoden-Videotracker
DE3689545T2 (de) Zweimoden-Videotracker.
DE69031094T2 (de) Verfahren und Gerät zur Überwachung und Zielverfolgung
DE69127809T2 (de) Verfahren um zwei bewegungen in hintereinanderfolgenden teilbildern mit drei teilbildern dynamisch zu analysieren
DE69017811T2 (de) Nachführsystem mit gezwungenem Korrelation/Gemischmodus.
DE69434657T2 (de) System und Verfahren zur elektronischen Bildstabilisierung
DE68912955T2 (de) Radar-Videodetektor und Zielverfolgungsgerät.
DE69027571T2 (de) Synergisches Verfolgungsgerät
DE69027809T2 (de) Bewegungsabhängige Videosignalverarbeitung
US4220967A (en) Scene tracker using multiple independent correlators
DE69021431T2 (de) Bewegungsabhängige Videosignalverarbeitung.
EP1825602B1 (de) Vorrichtung und verfahren zum ermitteln eines korrelationsmaximums
EP1372000A2 (de) Verfahren zur Detektion sowie Geschwindigkeits- und Positionsschätzung von bewegten Objekten in SAR-Bildern
DE2800074A1 (de) Kohaerentes pulsradarsystem fuer flugzeuge
DE102015115786B4 (de) An einem computer realisiertes verfahren und system zur verarbeitung einer sequenz von bildern
DE69531510T2 (de) Verfahren und Vorrichtung zur Bewegungsschätzung mittels Blockübereinstimmung
DE3343326A1 (de) Verfahren und vorrichtung zum verbessern der winkelaufloesung eines monopulsradars
DE69304376T2 (de) Verfahren zur Radarzielverfolgung
CN106097292A (zh) 时序sar时空邻域高斯加权中值滤波斑噪抑制快速算法
DE2106035B2 (de) Vorrichtung zur Überprüfung der Formübereinstimmung eines elektromagnetisch erzeugten Objektbildes mit einem vorgegebenen Schema
DE60207600T2 (de) Vorrichtung und verfahren zur schätzung des taktfehlers in einem digitalen empfänger mittels trainingssequenzen
DE68919205T2 (de) Verfahren zur segmentierung von sich bewegenden objekten.
DE112018007442B4 (de) Datensynchronisationsvorrichtung, datensynchronisationsverfahren und datensynchronisationsprogramm
DE2438837A1 (de) Verfahren und einrichtung zum beseitigen von echosignalen
DE68927814T2 (de) Bildverarbeitungssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: RAYTHEON CO., LEXINGTON, MASS., US