DE3516745C2 - Ultrahochauflösende Abbildungsanordnung - Google Patents

Ultrahochauflösende Abbildungsanordnung

Info

Publication number
DE3516745C2
DE3516745C2 DE3516745A DE3516745A DE3516745C2 DE 3516745 C2 DE3516745 C2 DE 3516745C2 DE 3516745 A DE3516745 A DE 3516745A DE 3516745 A DE3516745 A DE 3516745A DE 3516745 C2 DE3516745 C2 DE 3516745C2
Authority
DE
Germany
Prior art keywords
image
evaluation
data
intensity
functions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE3516745A
Other languages
English (en)
Other versions
DE3516745A1 (de
Inventor
Stephen Piers Luttrell
Christopher John Oliver
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qinetiq Ltd
Original Assignee
UK Secretary of State for Defence
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UK Secretary of State for Defence filed Critical UK Secretary of State for Defence
Publication of DE3516745A1 publication Critical patent/DE3516745A1/de
Application granted granted Critical
Publication of DE3516745C2 publication Critical patent/DE3516745C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/0209Systems with very large relative bandwidth, i.e. larger than 10 %, e.g. baseband, pulse, carrier-free, ultrawideband

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

Die Erfindung betrifft eine Abbildungsanordnung mit vorge­ gebener Impulsantwort, bei der kohärente Strahlung zur Be­ leuchtung einer Szene verwendet wird. Eine solche Anord­ nung, wie sie im Oberbegriff des Patentanspruchs 1 be­ schrieben ist, ist aus der GB-21 13 501 A bekannt.
In dieser Druckschrift ist eine Auflösungserhöhung in einem optischen Mikroskop beschrieben. Das Mikroskop weist einen Laser auf, der einen kleinen Bereich einer Objektebene aus­ leuchtet und Fokussierungseinrichtungen zum Fokussieren von von der Objektebene abgestrahltem Licht auf eine Bildebene, in der eine zweidimensionale Detektoranordnung angeordnet ist. Jedes Detektorausgangssignal wird verarbeitet, um die komplexe Amplitude und Phase des auf den Detektor fallenden Lichts oder Bildelements abzuleiten. Die Bildinformation wird einer mathematischen Analyse unterzogen, um den be­ strahlten Objektbereich zu rekonstruieren. Diese Analyse ist nachteilig insofern, als die Objektbeleuchtung außer­ halb eines vorbestimmten, Träger genannten Bereichs, gleich Null ist, und insofern als eine Fokussierungsvorrichtung mit bekanntem räumlichem Impulsansprechverhalten oder mit bekannter optischer Übertragungsfunktion verwendet wird, um die Bildinformation zu erzeugen. Das bekannte Impulsan­ sprechverhalten und der Träger werden mathematisch analy­ siert, um entsprechende singuläre Bild- und Objektraumfunk­ tionen zu erzeugen, in die die Bilddaten zerlegt werden können und von denen die Objektdaten rekonstruiert werden können. Dieses Verfahren ähnelt einer Fourier-Spektralana­ lyse. Der Nettoeffekt dieses Verfahrens liegt darin, daß das Objekt aus den Bilddaten mit einer besseren Auflösung rekonstruiert werden kann, als wenn nur Bilddaten alleine verwendet werden. Es kann eine Auflösung innerhalb der klassischen Beugungsgrenzen, dem Rayleigh-Kriterium, erhal­ ten werden. Die mathematische Analyse wird von Bertero und Pike in Optica Acta, 1982, Vol. 29, N° 6, Seiten 727-746 diskutiert.
Die in der erstgenannten Druckschrift beschriebene Auflö­ sungserhöhung ist bei allen Abbildungsanordnungen anwend­ bar, das heißt z. B. bei optischen, Radar- und Sonarabbil­ dungsanordnungen. Allgemein ausgedrückt besteht diese Auf­ lösungserhöhung darin, einen einzigen Sender und mehrere Detektoren oder alternativ dazu einen Sender mit einem be­ weglichen oder scannenden Detektor zu verwenden. Dies ent­ spricht zum Beispiel einem bi-statischen Radarsystem. In vielen wichtigen Anwendungsfällen verwenden Abbildungsan­ ordnungen jedoch einen einzigen gekoppelten Sender und Emp­ fänger, was zum Beispiel bei monostatischen Radareinrich­ tungen, Sonar- und Laserentfernungsmesser- oder Lidarein­ richtungen der Fall ist. Bei Radar- und Sonareinrichtungen sind Sender und Empfänger üblicherweise zu einem Gerät zu­ sammengefaßt, d. h. z. B. zu einer Radarantenne oder einer Sonar-Wandleranordnung. Bei Lidareinrichtungen sind der La­ sersender und die Detektoren miteinander gekoppelt.
In jedem dieser Fälle kann die Kombination aus Sender und Empfänger gescannt werden, um den Effekt einer gleichen An­ zahl von Sendern und Empfängern hervorzurufen, wie das bei Flugverkehrsüberwachungsradars und Radaranlagen mit aufbe­ arbeiteter Apertur der Fall ist. Bei diesen und ähnlichen optischen und Sonareinrichtungen wäre es zu kostspielig und die Einrichtungen würden zu komplex, wenn mehrere Detekto­ ren pro Sender verwendet würden oder wenn der Sender und der Empfänger entkoppelt würden, um den letzteren zu scan­ nen. Darüber hinaus bietet die in der erstgenannten Druck­ schrift beschriebene Anordnung keine Verbesserung in der Information über die Entfernung. Es wird die Auflösung in zu den Entfernungsrichtungen orthogonalen Richtungen, das heißt in der Sender-Targetrichtung, erhöht. Bei Radar-, Sonar- oder Lidareinrichtungen, die dazu verwendet werden, den Targetbereich zu bestimmen, würde dies eine unerwünsch­ te Einschränkung darstellen.
Der Erfindung liegt die Aufgabe zugrunde, eine verbesserte Abbildungsanordnung mit erhöhter Auflösung anzugeben.
Diese Aufgabe wird mit den im Patentanspruch 1 angegebenen Merkmalen gelöst.
In den Unteransprüchen sind Merkmale bevorzugter Ausfüh­ rungsformen der Erfindung gekennzeichnet.
Erfindungsgemäß wird die Ultrahochauflösung durch die Er­ zeugung von Singulärfunktionen aus dem Impulsansprechver­ halten der Anordnung und der Bewertungsfunktion erzielt. Die Singulärfunktionen werden bei einer Bildzerlegung ana­ log zu einer Fourier-Spektralanalyse und zur darauffolgen­ den Objektrekonstruktion verwendet. Die Bewertungsfunktion gibt die allgemein erwartete Form des Objekts wieder, das die Bilddaten bewirkt und ist auf vorherige Erfahrungen und auf die Kenntnis typischer abgebildeter Objekte gestützt. So kann zum Beispiel ein Bild mit einem einzelnen intensi­ ven Beugungsmaximum theoretisch jeder beliebigen Anordnung von streuenden Objekten entsprechen, die eine konstruktive Interferenz am Ort des Maximums und sonst eine destruktive Interferenz liefert. In der Praxis ist es viel wahrschein­ licher, daß die Lage des Maximums einer lokalisierten Tar­ getverteilung entspricht, was die Bewertungsfunktion aus­ drückt. Der Nettoeffekt des Einfügens einer Bewertung in die Analyse von Bilddaten durch eine Singulärfunktionszer­ legung liegt erfindungsgemäß darin, daß die Auflösung über das Maß erhöht werden kann, das dem klassischen Rayleigh- Kriterium entspricht.
Die Erfindung ist bei jeder Abbildungsanordnung anwendbar, die komplexe Bilddaten liefert, wie zum Beispiel Radar-, Sonar- oder Lidareinrichtungen. Die erfindungsgemäße Abbil­ dungsanordnung ist hinsichtlich der Anzahl der Dimensionen, in denen eine Abbildung durchgeführt wird, nicht be­ schränkt. Im Gegensatz zu den Anordnungen gemäß der obenge­ nannten Druckschriften ist die erfindungsgemäße Abbildungs­ anordnung bei entsprechender Ausführung in der Lage, Ent­ fernungsinformation höher aufzulösen.
Die Einheit zum Rekonstruieren von Objektdaten weist vor­ zugsweise eine Rechenanlage auf, die ausgelegt ist, um:
  • 1. singuläre Bild- und Objektraumfunktionen für die Bewer­ tungsfunktion und das Impulsansprechverhalten der An­ ordnung zu liefern,
  • 2. Bilddaten in eine lineare Kombination von singulären Bildraumfunktionen zu zerlegen,
  • 3. die Kombination der singulären Bildraumfunktionen in eine entsprechende Objektzerlegung umzuwandeln, und
  • 4. Objektdaten aus ihrer Zerlegung zu rekonstruieren.
Die Rechenanlage kann ebenfalls dazu ausgelegt sein, rauschverzerrte Singulärfunktionen bei der Objektrekon­ struktion zu eliminieren. Singulärfunktionen können aus der Bewertungsfunktion und dem Impulsansprechverhalten der An­ ordnung berechnet werden. Alternativ dazu können erzeugte Bewertungsfunktionen mit vorher gespeicherten Bewertungs­ funktionen mit entsprechenden vorberechneten Singulärfunk­ tionen abgestimmt werden. Das Vorsehen von Singulärfunktio­ nen führt dann nur noch zu einer Selektion.
Bei einer bevorzugten Ausführungsform ordnet die Einheit zum Erzeugen einer Bewertungsfunktion jedem Bildelement ei­ nen entsprechenden Bewertungswert zu, der der Intensität des Bildelements relativ zu benachbarten oder lokalen Bild­ elementen entspricht. Die Bewertunghsfunktion besteht dann aus einer Bildelementbewertung als Funktion der Bildele­ mentnummer. Einzelne Bildelementsbewertungen ändern sich vorzugsweise in Abhängigkeit von der jeweiligen Intensität, wenn diese einen Grenzwert überschreitet, der auf einer mittleren lokalen Bildelementintensität basiert. Bildele­ menten, deren Intensitäten diese Schwelle nicht überschrei­ ten, werden vorzugsweise ein Bewertungswert zugeordnet, der auf lokalen Bildelementintensitäten basiert, die diese Schwelle nicht übersteigen.
Die Einrichtungen zum Erzeugen eines Bilds aus den rekon­ struierten Objektdaten können einen Höhendetektor zum Er­ zeugen von Amplitudenwerten und eine Sichtanzeigevorrich­ tung aufweisen.
Im folgenden wird die Erfindung anhand der Beschreibung be­ vorzugter Ausführungsformen mit Bezugnahme auf die Zeich­ nung näher erläutert. Es zeigen:
Fig. 1 ein Blockdiagramm einer Ausführungsform der Abbildungsanordnung,
Fig. 2 und 3 detaillierte Darstellungen des Bewertungs­ funktionsgenerators und der Iterationssteu­ ereinheit, die jeweils in Fig. 1 gezeigt sind,
Fig. 4 zweidimensionale Höhenlinienzeichnungen zur Erläuterung der Objektrekonstruktion nach der Erfindung,
Fig. 5 zweidimensionale Target- und Bildhöhenlini­ enzeichnungen, wie sie in einem herkömmli­ chen Radarsystem erzeugt werden,
Fig. 6 unbewertete Singulärfunktionen,
Fig. 7 bewertete Singulärfunktionen, die nach der Erfindung erzeugt werden und bei denen die in Fig. 5 gezeigten Bilddaten verwendet sind,
Fig. 8 eine Objektrekonstruktion mit den in Fig. 7 gezeigten Singulärfunktionen, und
Fig. 9 eine schematische Darstellung eines Teils eines Lidarsystems.
Fig. 1 zeigt schematisch ein Funktionsschema eines Impuls­ kompressionsradarsystems nach der Erfindung. Das System weist eine Antenne 10 auf, die einen eine schematisch in einer Bereichsdimension bei 12 gezeichnete Szene beleuch­ tenden Radarstrahl 11 erzeugt. Die Szene 12 ist als Seiten­ schnitt dargestellt. Sie weist drei Hauptstreuobjekte 13, 14 und 15 in einem Bereich auf, der nicht größer ist als die klassische Rayleigh-Auflösungsgrenze des Radarsystems. Die Objekte 13 bis 15 treten vor einem Störsignale erzeu­ genden Hintergrund 16 auf, der aus relativ schwachen Streu­ zentren besteht. Die Objekte 13 bis 15 erzeugen zur Antenne 10 zurückreflektierte Signale, deren Intensität um 18 dB größer ist als die der Störsignale. Die Impulsbreite des Radarsystems beträgt 20 Nanosekunden, die Bandbreite 40 MHz und die Auflösungsgrenze 5 Meter. Jedes Bildelement einer entsprechenden Radaranzeige würde normalerweise 5 Metern in Scannrichtung und orthogonal dazu entsprechen. Die äußeren Objekte 13 und 15 haben in der Szene 12 einen Abstand von 5 Metern voneinander. Die Antenne 10 ist an eine Radarsen­ der/Empfängereinheit 20 und weiter an eine Überlagerungs­ signalverarbeitungs(SP)-Einheit 21 geschaltet, die einen (nicht gezeigten) Überlagerungsoszillator aufweist. Die Sender/Empfängereinheit 20 und die Signalverarbeitungsein­ heit 21 sind konventionelle Radargeräte, die im weiteren nicht näher beschrieben werden. Die Signalverarbeitungsein­ heit 21 liefert in-Phase- und Quadratur- bzw. P- und Q- Signale, das heißt komplexe Bilddaten, an einen Rahmenspei­ cher 22, der mit einer Datenauswahleinheit 23 verbunden ist. Von der Datenauswahleinheit 23 werden die P- und Q- Signale zu einem Höhendetektor 24 geführt, der Amplituden­ werte √(P2 + Q2) erzeugt, wonach die Signale an einen Bild­ speicher 25 und eine Anzeigevorrichtung 26 weitergeleitet werden.
Die Anzeigevorrichtung 26 weist eine 33 × 33 Bildelement- Anordnung auf, mit einem Zeit/Bandbreitenprodukt von 33 für das Radarsystem in zwei Dimensionen, dem Abstand und der Höhe. Jedes Bildelement entspricht einer 1¼ Meter Auflö­ sungszelle in der Abstands- und in der Scannrichtung. Dies entspricht jedoch einem Abtasten des Bildes mit zu kleinem Raster, da die fundamentale oder nichterhöhte Auflösung des Systems 5 Meter beträgt. Normalerweise würde ein Bildele­ ment einer Auflösungszelle mit 5 Meter Kantenlänge entspre­ chen. Im folgenden wird die Bild-Auflösungserhöhung erläu­ tert. Die Objekte 13 bis 15 werden auf der Anzeigevorrich­ tung 26 als eine einzige oder unaufgelöste Beugungskeule 27 dargestellt, die sich über 6 Bildelemente erstreckt und von einem gesprenkelten Muster aus Störsignalen, wie z. B. bei 28, umgeben sind. Die Breite der Keule 27 gibt die Beu­ gungsauflösungsgrenze des Radarsystems an.
Die Bildamplitudeninformation ist ebenfalls vom Bildspeicher 25 aus an einen Intensitäts-Bewertungsfunktionsgenerator 30 und schließlich an eine Rechenanlage 31 angelegt, die durch einen strichpunktierten Rahmen wiedergegeben ist, in dem ein Flußdiagramm der Signalverarbeitung wiedergegeben ist. Wie im folgenden noch im einzelnen beschrieben wird, erzeugt die Rechenanlage 31 im Verarbeitungsschritt 32 Singulär­ funktionen zur aufeinanderfolgenden Bildzerlegung. Die Anlage kombiniert einen Amplitudenbewertungsfunktion (auf der Basis der im Bewertungsfunktionsgenerator 30 erzeugten Intensitäts­ bewertungsfunktion) mit dem bei 33 gespeicherten Radarsystem- Impulsansprechverhalten. Das Impulsansprechverhalten ist das Bild, das das System von einer Punktquelle oder einer Delta­ funktion erzeugt. Im Verarbeitungsschritt 34 werden singuläre Funktionen verwendet, um komplexe Daten zu zerlegen, die direkt von dem Rahmenspeicher 22 erhalten werden, wobei dies auf ähnliche Weise geschieht wie bei der Zerlegung in Fourier- Komponenten bei einer Spektralanalyse. Aus den Bilddaten werden Linearkombinationen der singulären Funktion, die Funk­ tionskoeffizienten hat, die während der Zerlegung berechnet werden. Terme in diesen Linearkombinationen, die stark durch Rauschen beeinträchtigt sind, werden im Verarbeitungsschritt 35 entfernt. Die verbleibenden Terme werden im Verarbeitungs­ schritt 36 in eine äquivalente Objektzerlegung umgewandelt. Im Verarbeitungsschritt 37 wird die Objektrekonstruktion durchgeführt, um berechnete P- und Q-Werte für jedes Bild­ element zu erzeugen. Dies ähnelt der Rekonstruktion eines Signals aus seinen Fourier-Spektralkomponenten. Ein Hüll­ detektor 38 erzeugt die Amplituden der P- und Q-Werte, die über einen Objektspeicher 39 zu einem zweiten Sichtanzeigegerät 40 gelangen. Das Sichtanzeigegerät 40 zeigt Höhenlinien­ abbildungen der drei zweidimensionalen Beugungskeulen 41 bis 43. Dies entspricht den ultraaufgelösten Objekten 13 bis 15 und der einzelnen nichtaufgelösten Beugungskeule 27 bzw. der klassischen Beugungsgrenze. Die Keulen 41 bis 43 werden von Falschbildern, wie zum Beispiel bei 44, umgeben, die durch ungewöhnlich intensive Streuquellen hervorgerufen werden.
Die Objektrekonstruktions- oder berechneten P- und Q-Werte passieren eine Iterationssteuereinheit 47, die ebenfalls die ursprünglichen Bilddaten vom Rahmenspeicher 22 empfängt. Die Steuereinheit 47 erfaßt jede Änderung zwischen dem ur­ sprünglichen Bild und dem rekonstruierten Objekt. Wenn die Änderung wesentlich ist, wiederholt die Steuereinheit 47 das Auflösungs-Erhöhungsverfahren. Um dies zu erreichen, wird ein Steuersignal über eine Leitung 48 an die Daten­ auswahleinheit 23 geschickt. Die Einheit 23 liest die rekonstruierten Objektdaten von der Iterationssteuerein­ heit 47 über eine Leitung 49. Der Auflösungserhöhungsprozeß erfolgt dann noch einmal, wobei die rekonstruierten Objekt­ daten als Eingangsdaten sowohl zur Erzeugung der Bewertungs- als auch der Singulärfunktion verwendet werden, und die ursprünglichen Bilddaten werden erneut zerlegt. Dieses iterative Verfahren setzt sich fort, indem jedes rekonstruier­ te Objekt mit dem vorhergehenden verglichen wird. Es wird beendet, wenn das erhöht aufgelöste oder rekonstruierte Objekt sich nicht mehr zwischen zwei aufeinanderfolgenden Iterationen signifikant ändert.
Fig. 2 zeigt innerhalb des strichpunktiert gezeichneten Rahmens 30 ein Blockdiagramm des Bewertungsfunktionsgenerators 30. Bereits erwähnte Bauelemente sind mit den gleichen Bezugszeichen versehen. Wie bei dem Verarbeitungsschritt 50 angegeben ist, werden im Bildspeicher 25 Bildelementinten­ sitäten oder Werte von (P2 + Q2) in aufeinanderfolgende Bild­ unterbereiche von bis zu 7 × 7 Bildelementen adressiert. Jeder Unterbereich hat ein zentrales oder äquivalentes Bildelement, für das eine Bewertung auf der Grundlage einer statistischen Analyse von Bildelementintensitäten in dem Unterbereich berechnet werden muß. Bildelemente in der Nähe der Anzeigeränder mit weniger als 3 Bildelementen an einer oder zwei Seiten haben entsprechende Bewertungswerte, die aus allen in einem Abstand von bis zu 3 Bildelementen verfüg­ baren Bildelementen berechnet werden. Dies ergibt eine Be­ wertungswertbestimmung über eine minimale Anzahl von 16 Bildelementen für ein in einer Ecke gelegenes Bildelement und über maximal 49 Bildelemente für solche Bildelemente, die wenigstens 3 Bildelement weit von einer Kante der An­ zeige entfernt sind. Im Verarbeitungsschritt 51 wird die mittlere Intensität <I(k)< und die Varianz Var[I(k)] der jeweiligen Unterbereichs-Bildelementintensi­ täten I(k) für alle Bildelemente in diesem Unterbereich be­ rechnet, wobei der Parameter k die jeweilige Bildelement­ nummer angibt. Die Ergebnisse dieser Berechnungen werden im Programmschritt 52 dazu verwendet α(k), einen Kontrast­ koeffiziententerm, in der Bewertungsfunktion (wird weiter unten beschrieben) abzuleiten. Die Ergebnisse werden im Programmschritt 53 ebenfalls dazu verwendet, eine anpaß­ bare Schwelle gleich 5<I(k)< zu setzen, das heißt, der Schwellenwert ist auf einem Intensitätspegel, der fünfmal so groß ist wie die mittlere Intensität. Im Verarbeitungs­ schritt 54 wird jede adressierte Unterbereichsbildelement­ intensität mit dem Schwellenwert 5<I(k)< verglichen. Intensitäten unterhalb dieses Schwellenwertes werden als Stör- oder Untergrundsignale behandelt und Intensitäten über diesem Schwellenwert als erfaßte Targets. Die unter­ halb des Schwellenwerts liegenden Intensitäten werden im Programmschritt 55 dazu verwendet, eine mittlere Unter­ grundintensität für jeden Unterbereich zu berechnen, in dem die oberhalb der Schwelle liegenden Bildelementinten­ sitäten nicht berücksichtigt werden. Der Wert von α und das Hintergrundmittel werden im Verarbeitungsschritt 56 dazu verwendet, einen Bewertungswert für das zentrale Bild­ element des jeweiligen Unterbereichs oder für das entsprechen­ de Bildelement von Unterbereichen, die weniger als 49 Bild­ elemente enthalten, zu berechnen. Dieses Verfahren wird so­ lange wiederholt, bis alle Bildelementintensitäten auf der Anzeige einen Bewertungswert haben. Die Bewertungswerte zusammen bilden eine Bewertungsfunktion zur Erzeugung einer Singulärfunktion im Verarbeitungsschritt 32 in der Rechen­ anlage 31.
Fig. 3 zeigt ein schematisches Funktionsdiagramm der inner­ halb des strichpunktierten Rahmens dargestellten Interations­ steuereinheit 47. Bereits vorher erwähnte Bauelemente sind mit gleichen Bezugszeichen versehen. Die von der Steuer­ einheit 47 empfangenen Objektrekonstruktionsdaten durch­ laufen einen Speicher 60 für das derzeit gültige Objekt, der gleichzeitig alle Objektdaten von einem direkt vorher­ gehenden Iterationszyklus an einen Speicher 61 für vor­ hergehende Objekte abgibt. Der Speicher 61 enthält anfangs die ursprünglichen Bilddaten, die er von dem Rahmenspeicher 22 erhalten hat. Die Inhalte der Speicher 60 und 61 werden über jeweilige Hüllendetektoren 62 und 63 zu einem Differenz­ berechnungsglied 64 ausgegeben. Das Differenzberechnungs­ glied 64 erstellt die quadrierte Summe aller einzelnen Bild­ elements-Intensitätsänderungen über alle 33 × 33 Bildele­ mente und dividiert dieses Ergebnis durch die quadrierte Summe aller derzeitigen Bildelementsintensitäten. Wenn das Ergebnis größer als 10-4 ist, was einer Gesamtamplituden­ änderung von mehr als 1% entspricht, wird ein Steuersignal über die Leitung 48 an die Datenauswahleinheit 23 abgegeben. Die Einheit 23 liest dann den Inhalt des Speichers für das gültige Objekt zur darauffolgenden Hüllendetektion und zur Erzeugung von Bewertungs- und Singulärfunktionen aus. Eine weitere Iteration oder Auflösungserhöhung erfolgt dann auf der Basis der ursprünglichen Bilddaten. Beim Empfang eines zweiten Satzes rekonstruierter Daten gibt der Speicher 60 für das gültige Objekt den einen Iterationszyklus früher empfangenen Satz an den Speicher für das vorhergehende Ob­ jekt ab, der die vorher gehaltenen Daten ausgibt. Darauf erfolgt wie vorher ein Vergleich zwischen aufeinanderfolgen­ den Rekonstruktionen. Die Iteration wird fortgesetzt, bis aufeinanderfolgende Objektrekonstruktionen sich um weniger als 1% unterscheiden, wenn das Sichtanzeigegerät 40 eine Endrekonstruktion wiedergibt.
Fig. 4 zeigt vier zweidimensionale Anzeigen in Form von Höhen­ linien-Graphen 71 bis 74. Dies gibt schematisch 33 × 33 Bild­ elementradaranzeigen wieder, wie sie in Fig. 1 mit den Be­ zugszeichen 26 und 40 gezeigt sind, wobei jede aus Amplituden werten besteht, die als Höhenlinien über dem Bereich R und dem Scannwinkel oder Höhenwinkel θ gezeichnet sind. Diese Graphen wurden durch eine Computersimulation der erfindungsgemäßen Maßnahmen erhalten. Die Graphen 71 und 72 sind Target- bzw. konventionelle Radarbilddarstellun­ gen und der Graph 73 ist eine Bewertungsfunktion, die aus den Daten des Graphen 72 abgeleitet ist und der Graph 74 stellt eine Objektrekonstruktion dar. Die Skaleneinteilung ist beliebig, jedoch für alle vier Graphen die gleiche. Die Entfernung wird aus der Laufzeit der Impulssignale, und der Hori­ zontalwinkel aus der Antennenstellung bei Signalempfang abgeleitet. Der Graph 71 stellt ein zweidimensionales Punkt­ target dar, das mit hoher Auflösung dargestellt ist und aus einer schmalen zentralen Beugungskeule 75 besteht. Der Graph 71 könnte theoretisch als Delta-Funktion eines Bild­ elements bezüglich Entfernung und Horizontalwinkel darge­ stellt werden, die schmale Beugungskeule 75 oder das Target entsprechen jedoch mehr der praktischen Situation.
Der Graph 72 stellt ein Radarbild des Targets 75 dar und zeigt eine breite zentrale Beugungskeule 76, die die klas­ siche Rayleigh-Beugungsgrenze wiedergibt. Die Keule 76 tritt zusammen mit einem schwachen Streusignaluntergrund auf, der markante Merkmale, wie bei 77, 78 und 79 gezeigt, aufweist. Wenn keine Störsignale vorhanden wären, würde der Graph 72 nur die zentrale Keule 76 ohne den darunterliegenden Unter­ grund zeigen. Die störsignalfreie Keule entspricht dem Im­ pulsansprechverhalten des Radarsystems in Entfernungsrich­ tung und Horizontalwinkelrichtung, wobei das Impulsansprech­ verhalten definiert ist als das Bild, das durch eine Punkt­ quelle erzeugt wird. Das Impulsansprechverhalten ist eine berechenbare oder meßbare Konstante einer Abbildungsanord­ nung. Für ein optisches System wird das Impulsansprechver­ halten üblicherweise durch die optische Übertragungsfunktion wiedergegeben. Das entsprechende eindimensionale Impulsan­ sprechverhalten wäre dann sin x/x, wobei x eine passend bezüglich der relevanten Bildelementanzeige normierte Variab­ le ist. Dieses Impulsansprechverhalten wäre angemessen für eine Targetentfernung eines Radarerfassungssystems bei festgelegtem Horizontalwinkel.
Die im Graphen 73 gezeigte Bewertungsfunktion wird durch eine mittlere Hauptkeule dominiert, die der Identifizierung eines lokalisierten Targets, z. B. des Targets 75, entspricht. Zusätzlich entsprechen kleine Bewertungswerte 81, 82 und 83 Störsignalen, die fälschlicherweise als schwache Targets identifiziert wurden. Der Wert der Bewertungsfunktion ist im wesentlichen konstant, im Gegensatz zu den Werten bei 80 bis 83, was durch das Fehlen von Höhenlinien angezeigt ist. Wenn Targets in einem Untergrund ungleich Null auf­ treten, wäre es unmöglich, schwache Targets von Störsignalen zu unterscheiden. Der Grad, bis zu welchen schwachen Signalen ein signifikanter Bewertungswert gegeben wird, kann dadurch reduziert werden, indem der Diskriminationspegel erhöht wird, was allerdings durch Unterdrückung möglicher gewünsch­ ter Signale erkauft wird.
Der Graph 74 gibt den Effekt der Anwendung der Bewertungsfunk­ tion aus dem Graphen 73 auf die Bilddaten wieder. Es ist eine gut aufgelöste Hauptbeugungskeule 85, die fünf Höhenlinien aufweist, zusammen mit schwachen, von Störsignalen herrührenden Verzerrungen 86 und 87 mit je einer Höhenlinie gezeigt. Die Auflösung ist besser als die gemäß dem Rayleigh-Kriterium erhalt­ bare. Zusätzlich erscheinen falsche Targets 88, 89 und 90 schwach (mit einer Höhenlinie), die jeweils kleinen Bewertungs­ werten 81 bis 83 entsprechen. Es ist offensichtlich, daß eine signifikante Erhöhung der Auflösung somit erhalten wurde. Dies erkennt man durch Vergleich der Breiten der inneren vier Höhenlinien der Hauptkeule 76 (Bild) und 85 (rekonstruiertes Objekt). Die Auflösung ist näherungsweise um einen Faktor 2 erhöht.
Während Fig. 4 eine zweidimensionale Wiedergabe zeigt, ist die Erfindung unabhängig von der Anzahl der Dimension, in den sie angewendet wird. Ausführungsformen der Erfindung können verwendet werden, um die Auflösung in in einer be­ liebigen, in zwei- oder in den drei Dimensionen Entfernung, Horizontalwinkel und Höhe zu erhöhen. Dabei müssen ent­ sprechende Richtungssingulärfunktionen, Bewertungsfunktionen und Impulsansprechverhalten angewendet werden.
Fig. 5 zeigt mittels eines Computers simulierte Graphen 101 und 102, die jeweils einer Szene und einem konventionellen Radarbild dieser Szene darstellen. Die Graphen entsprechen den Graphen 71 und 72 in Fig. 4 für eine andere Szene. Der Graph 101 zeigt vier relativ intensive Punkttargets 103 bis 106 (siehe 75 in Fig. 4), mit jeweils fünf Höhenlinien. Diese Targets 103 bis 106 erscheinen innerhalb eines verhält­ nismäßig schwachen Störsignaluntergrunds, der als ganzes mit 107 bezeichnet ist und im wesentlichen aus Störsignalen mit einer Höhenlinie besteht. Das Radarbild des Graphen 102 zeigt, daß die Targets 103 bis 106 nicht aufgelöst wurden. Sie werden also als eine einzelne breite Beugungskeule 108 mit fünf Höhenlinien wiedergegeben, von denen die niedrigste Höhenlinie 109 durch Störeffekte dominiert wird. Die Keule 108 hat einen Intensitätsspitzenwert von 18 db über der mittleren Störsignalintensität. Störsignale mit einer oder mit zwei Höhenlinien umgeben die Hauptkeule 108. Einiger dieser Störsignale sind mit 110 bzw. 111 bezeichnet.
Fig. 6 zeigt die ersten 16 singulären Objektraumfunktionen, die von dem Impulsansprechverhalten der Abbildungsanordnung und von einer uniformen Bewertungsfunktion abgeleitet sind. Die Funktionen sind als zweidimensionale Höhenlinienzeichnun­ gen 121 bis 136 dargestellt. Diese Funktionen werden zum Ver­ gleich mit den erfindungsgemäß erhaltenen Funktionen ge­ zeigt, die erhalten werden, wenn ein Bewertungsfunktionsge­ nerator (z. B. 30) verwendet wird, um ungleichförmige Bewer­ tungsfunktionen aus den Bilddaten zu generieren. Wenn die Singulärfunktionen 121 bis 136 dazu verwendet werden sollten, um ein Objekt aus den im Graphen 102 gezeigten Bilddaten zu rekonstruieren, so würde diese Rekonstruktion insoweit keine Auflösungsverbesserung liefern. Das Bild würde vielmehr unverändert bleiben, abgesehen von kleineren Rundungs- oder Digitalisierungsfehlern. Dies entspricht dem konventionellen Abbildungsverfahren.
Fig. 7 zeigt die ersten 16 singulären Objektraumfunktionen 141 bis 156, die aus dem Impulsansprechverhalten der Anord­ nung und einer nicht gleichförmigen Bewertungsfunktion abge­ leitet sind, die erfindungsgemäß in einem Bewertungsfunktions­ generator erzeugt werden. Singuläre Bildraumfunktionen sind nicht gezeigt. Aus den Graphen 141 bis 147 erkennt man ins­ besondere, daß der Haupteffekt der Einführung einer nicht gleichförmigen Bewertung darin liegt, den Schwerpunkt der Funktion in den mittleren Bereichen der Graphen zu konzen­ trieren. Dies entspricht den Positionen der Targets 103 bis 106 und der Beugungsbildkeule 108 in Fig. 5.
In Fig. 8 ist die Objektrekonstruktion anhand der Funktionen 141 bis 156 aus Fig. 7 dargestellt. Fig. 8 zeigt vier Graphen 161 bis 164, die jeweils einer, zwei, drei und vier Iterationen des Rekonstruktionsprozesses entsprechen, das heißt, es werden jeweils erneut berechnete Singulärfunktionen des ursprünglichen Bildes 102 aus Fig. 5 verwendet. Es kann gezeigt werden, daß die Hauptbeugungskeule 108 des Bildes 102 sich im wesentlichen zusammensetzt aus einer Linarkombination der Funktionen niedriger Ordnung 141 bis 147 zusammen mit den Funktionen 149 und 150. Nicht unter­ drückter Störsignaluntergrund 110 und 111 wird im wesent­ lichen durch die Funktionen höherer Ordnung 148 und 151 bis 156 rekonstruiert.
Ein Vergleich der Objektrekonstruktion in Fig. 8 mit dem Orgininalbild 2 zeigt, daß die Anwendung des im Graphen 161 gezeigten Rekonstruktionsverfahrens die Auflösung bemer­ kenswert verbessert. Insbesondere wurden drei Maxima 165 von den vier ursprünglich vorhandenen Maxima 103 bis 106 aufgelöst, die bei 108 nicht aufgelöst waren. Die Graphen 162 bis 164 geben den Effekt sukzessiver Iteration bei dem Rekonstruktionsverfahren wieder. Der Nettoeffekt der Dar­ stellung im Graphen 164 besteht darin, daß vier ursprüngliche Targets 103 bis 106 mit verschiedener Stärke an den Stellen 166 bis 169 aufgelöst sind. Eine fünfte und fehlerhafte Spitze 170 gibt ein falsches Target in der Nähe der ur­ sprünglichen Targets wieder. Außerdem ist ein weiteres Tar­ get an der Stelle 171 zu erkennen, obwohl dieses auch fehler­ haft ist. Kleinere Störsignale sind an Stellen 172 wiederge­ geben. Es zeigt sich, daß der Gesamteffekt des Rekonstruk­ tionsverfahrens darin liegt, eine stark erhöhte Auflösung unter geringfügiger Inkaufnahme der Einführung einer kleineren Anzahl von Fehlinformationen erzielt wird. Die Bedienungs­ person des Radars, die das ursprüngliche Bild mit der end­ gültigen Rekonstruktion vergleicht, kann Spitzen außer Acht lassen, die nicht den Hauptmerkmalen des ursprünglichen Bil­ des entsprechen. Die größe mit der Erfindung erreichte Ver­ besserung liegt darin, daß Beugungskeulen wie z. B. 108, die von mehreren kleineren Merkmalen einer Szene herrühren, auf­ gelöst werden, anstatt, wie nach dem Stand der Technik, eine breite Keule zu bilden. Dies kann z. B. der Bedienungsperson eines Radars ermöglichen, die Anwesenheit von Fahrzeugen auf einer Szene zu erkennen, die größere Objekte beinhaltet.
Das Verfahren der Target- oder Objektrekonstruktion durch Zerlegung singulärer Funktionen wird im folgenden näher beschrieben. Zuerst wird die Erzeugung einer Intensitäts­ bewertungsfunktion W mit individuellen Werten W(k) er­ läutert. Der Index k entspricht der Bildelementnummer und kann x und y-Komponenten kx, ky haben oder kann ein einzel­ ner Index sein, wenn die Bildelemente der Reihe nach durch­ numeriert sind, z. B. entweder von 1 bis 33 für die x- und y-Komponenten oder 1 bis 1089 für einen einzelnen Index.
Ein körperliches Objekt in einer realen Szene wird als ein hellscheinendes Objekt auf einem Störsignaluntergrund abgebildet. Die Intensitätsverteilung des Störsignalhinter­ grundes ergibt sich aus der Oberlagerung zwischen einer großen Anzahl von zufällig verteilten Streuzentrenen und erzeugt einen gesprenkelten Hintergrund. Diese Erscheinung läßt sich gut mit einer unkorrelierten Gauß'schen Wahr­ scheinlichkeitsverteilungsfunktion wie folgt beschreiben:
wobei P(I) die Wahrscheinlichkeit dafür ist, daß ein Bild­ element die Intensität I hat und in <I< ist das Mittel über alle Bildelementintensitäten.
Aus Gleichung (1) folgt, daß die relative Varianz Var(I) der Bildelementintensitätsfluktuation für die Störsignale gegeben ist durch:
Var(I)/<I<2 = 1 (2)
Für einen N-look-Radar wäre die äquivalente relative Varianz gegeben durch:
Var(I)/<I<2 = 1/N (3)
Um die Bewertungswerte für jedes einzelne Bildelement zu berechnen, wird dessen Intensität mit der benachbarter Bildelemente verglichen. Diese Näherung erfolgt, um zu bestimmen, ob die Bildelementintensität vergleichbar ist mit oder wesentlich über der mittleren Intensität der benachbarter Bildelemente liegt. Bildelementintensitäten, die wesentlich über dem Mittel der Intensitäten der be­ nachbarten Bildelementen liegen, wird eine intensitätsab­ hängige Bewertung zugeordnet. Jeden Bildelementen, deren Intensität sich nicht wesentlich von diesem Mittel unter­ scheidet, wird eine Bewertung zugeordnet, die ein Mittel ist über den Intensitäten der benachbarten Bildelemente, was auch als Hintergrund bewertet wird, d. h. es wird über andere Bildelemente gemittelt als die, deren Intensität beträchtlich ist.
Die statistischen Eigenschaften hellstreuender Objekte in einer Szene sind nicht bekannt. Dementsprechend werden sie so behandelt, als hätten sie ähnliche Eigenschaften wie die Streusignale, d. h. z. B. eine unkorrelierte Gauß'sche Verteilung.
Wie oben erwähnt, wird jedem Bildelement eines Bildes ein Intensitätsbewertungswert W(k) zugeordnet, der durch Vergleich seiner Intensität mit der benachbarter Bildele­ mente berechnet wird. Die Bildelementintensitäten in dem jeweiligen 7 × 7 Bildelementunterbereich wird für jedes Bildelement zum Vergleich der Intensitäten im Verfahrens­ schritt 50 (Fig. 2) von dem Bildspeicher 25 adressiert. Der obenerwähnte äquivalente kleinere Unterbereich wird analog für Bildelemente verwendet, die sich in der Nähe einer Kante befinden. Die Unterbereichs- oder lokale mittlere Intensität <I(k)<A und die Varianz Var[I(k)], der Unterbereichs-Bildelementintensitäten werden für jede Bildelementnummer k im Verfahrensschritt 51 auf der Grundlage ihrer entsprechenden Unterbereichs- oder lokalen Bildelementintensitäten berechnet.
Um den Störsignaluntergrund zu unterdrücken, wird jede Bildelementintensität I(k), die nicht größer als ein Schwellenwert ist, der fünfmal größer ist als die jeweilige mittlere lokale Unterbereichsintensität, d. h. 5<I(k)<A, als Störsignal behandelt. Dieser Intensität wird ein In­ tensitätsbewertungswert W(k) zugeordnet, der gleich der jeweiligen lokalen mittleren Untergrundintensität ist. Das heißt:
W(k) = <I(k)<B, I(k) ≦ 5 <I(k)<A (4)
wobei <I(k)<B die mittlere Intensität solcher Bildelemente in dem jeweiligen Unterbereich ist, die den lokalen Schwellen­ wert 5<I(k)<A nicht übersteigt. Der Schwellenwert wird im Verfahrensschritt 53 aus der Unterbereichs-mittleren Inten­ sität <I(k)<A berechnet, die im Verfahrensschritt 51 erzeugt wird. Die Unterbereichs-Bildelementintensitäten wer­ den im Verfahrensschritt 50 adressiert und mit dem Schwellen­ wert mittels einen Schwellenwertdetektors 54 verglichen. Alle Bildelementintensitäten, die nicht größer als der Schwellenwert sind, werden im Verfahrensschritt 55 dazu ver­ wendet, die mittlere Untergrundintensität <I(k)<B zu berechnen.
Jede Bildelementintensität I(k), die ihren entsprechenden lokalen Schwellenwert übersteigt, erhält einen intensitäts­ abhängigen Bewertungswert W(k). Dieser Wert ist gleich dem jeweiligen Hintergrund-Mittelwert von <I(k)<B plus einem Kontrastterm, der sich in Abhängigkeit von der relativen Wertigkeit der jeweiligen Bildelementintensität ändert.
W(k) = <I(k)<B + α(k)(I(k) - <I(k)<B) (5)
wobei
Der Schwellenwertdetektor 54 legt ein Steuersignal an die Einheit 52 an, die α(k) aus der jeweiligen mittleren Inten­ sität berechnet. Wenn die Bildelementintensität I(k) nicht größer ist als der lokale Schwellenwert, wird das Steuer­ signal dazu verwendet, den Ausgabewert von α(k) auf Null zu setzen, unabhängig von dessen berechnetem Wert. Anderen­ falls wird α(k) wie in Gleichung (6) angegeben, berechnet. Der Intensitätsbewertungswert W(k) wird dann nach Gleichung wie im Verfahrensschritt 56 angegeben, berechnet.
Dieses Verfahren wird solange wiederholt, bis allen Bildele­ menten ein jeweiliger Bewertungswert zugeordnet ist und der sich ergebende Satz von Werten bildet die Intensitätsbewer­ tungsfunktion W.
Es sollte erwähnt werden, daß das obenbeschriebene Verfahren zur Erzeugung einer Bewertungsfunktion sich automatisch an den Hintergrund anpasst, der nicht konstant ist. Jeder Bild­ elementbewertungswert W(k) wird aus dessen jeweiligem Un­ terbereich berechnet und der Untergrundausdruck <I(k)<B in Gleichung (5) ändert sich entsprechend von Bildelement zu Bildelement.
Im folgenden wird die Target- oder Objektrekonstruktion durch eine Singulärwertzerlegung erläutert, wobei ψ ein orthogo­ naler Satz von Funktionen im Bildraum ist, in den das Bild zerlegt werden kann.
Dann gilt:
wobei ψi die Hermitische Konjugierte von ψi ist.
Die Objektzustände seien beschrieben durch einen Satz ge­ wichteter Funktionen ξ, wobei diese Funktionen gleich dem Produkt aus einer Amplitudenbewertungsfunktion w und un­ bewerteten Funktionen øj sind. Die Amplitudenbewertungs­ funktion w steht mit der obendefinierten Intensitätsbewer­ tungsfunktion W über folgende Beziehung in Zusammenhang:
W = |w|2 (8)
Wenn
W reell ist, w = √W, (9)
dann gilt:
ξj = wøj (10)
T sei das Impulsansprechverhalten der Abbildungsanordnung, d. h. das Bild, das die Anordnung von einem Objekt erzeugt hat die dimensionellen Eigenschaften einer Delta-Funktion. Für eine Linse wäre dies das Bild einer geometrischen Punkt­ quelle, wobei die optische Übertragungsfunktion räumlich zweidimensional ist. Die in der Beschreibungseinleitung zu­ erst genannte Druckschrift gibt Impulsansprechfunktionen für quadratische und zirkuläre Linsen an. Das Impulsan­ sprechverhalten einer Radaranordnung hat eine zeitliche (Entfernungs)-Dimension, wenn das System festgehalten wird und eine zeitliche und eine oder zwei räumliche Dimensionen, wenn das System gescannt wird. Ein rotierender Radarscanner hat eine Raumwinkeldimension und ein Radar mit synthetischer Apertur hat eine lineare räumliche Dimension. Impulsansprech­ verhalten dieser Art können in den einzelnen Abbildungsanord­ nungen mittels bekannter Techniken berechnet oder gemessen werden.
Notwendigerweise müssen die Objektraumfunktionen in Bild­ raumfunktionen über die Abbildungsanordnungstransformation oder das Impulsansprechverhalten T abgebildet werden. Entsprechend folgt aus Gleichung (10):
ψj = = Tξj = Twϕj (11.1)
und
ψi = ϕi wT (11.2)
Kombiniert man die Gleichung (11.1), (11.2) und (7), so folgt:
ϕi wTTwϕj = δij (12)
Der Ausdruck wTTw in Gleichung (12) ist ein Operator mit Eigenzuständen oder Eigenfunktion, die den Satz ø unbewerte­ ter Objektraumfunktion darstellen und Eigenwerte, die mit λj bezeichnet werden können. Löst man Gleichung (12) nach øj, so ergibt das die Eigenfunktionsgleichung:
wTTwϕj = λjϕj (13)
Gleichung (13) bestimmt den Satz unbewerteter Objektraum­ funktionen als Eigenzustände des Objektraumoperators wTTw. Der Funktionssatz ø kann entsprechend mittels der Rechen­ anlage 31 aus der Amplitudenbewertungsfunktion w und dem Impulsansprechverhalten T der Abbildungsanordnung berechnet werden. T ist bekannt und w wird aus Gleichung (9) im Ver­ fahrensschritt 32 abgeleitet. Kombiniert Gleichung (12) und (13), so ergibt sich:
Gleichung (14) zeigt, daß der Funktionssatz ø ein orthogo­ naler Satz ist und daß die Funktion ψ and ø eindeutig korre­ lierte Orthogonalfunktionssätze sind. Die Beziehung wird definiert durch den Normierungskoeffizienten oder Energie­ term λj. Falls gewünscht, kann der Funktionssatz ø durch Multiplikation mit λi normiert werden, um einen ortho­ normalen Satz zu erzeugen, wobei i = √λiøi ist. Dies ist jedoch nicht wesentlich.
Um einen Bildraumfunktionensatz ψ zu erhalten, wird eine weitere Eigenfunktionsgleichung aufgestellt, in dem auf der linken Seite von Gleichung (13) ψj = Twøj aus Gleichung (11) ersetzt wird, das heißt:
wTψj = λjϕj (15)
Multipliziert man beide Seiten von Gleichung (15) mit Tw ergibt sich:
TwwTψj = λjTwϕj (16)
Ersetzt man ψj = Twøi auf der linken Seite von Gleichung (16) ergibt sich:
TwwTψj = λjψj (17)
Gleichung (17) bestimmt den Bildraumfunktionssatz ψ als Eigenzustände des Bildraumoperators TwwT, wobei die Eigenwerte λj zu denen des Objektraums identisch sind. Der Funktionensatz ψ und der Eigenwertsatz λ können ent­ sprechend mittels der Rechenanlage 31 aus w und T aus Gleichung (13) berechnet werden.
Die komplexen Bilddaten werden durch einen Satz g aus indi­ viduellen Bildelementwerten g(k) dargestellt, wobei k wie oben die Bildelementnummer darstellt. Die Zerlegung des Satzes g in einen Funktionensatz ψ ist definiert durch:
das heißt, das Verhältnis oder der Anteil ψi g des Bilddaten­ satzes g, der in der i-ten singulären Bildraumfunktion ψ i auftritt, ist die Summe über alle k des Produkts des k-ten Punktwerts von ψi und des k-ten Werts von g. Diese Be­ rechnung wird für den ganzen Bildraumfunktionssatz ψ, d. h. von ψ1 bis ψn durchgeführt, so daß die Bilddaten zerlegt werden in eine Reihe numerischer Koeffizienten vom Typ ψi g, wobei jeder Koeffizient mit einer entsprechenden Funktion ψi multipliziert wird. Dies entspricht der Zer­ legung eines Signals in seine Fourier-Komponenten.
Wenn die Indizes i die Indizes j in Gleichung (11.1) er­ setzen und beide Seiten mit
multipliziert werden, ergibt sich:
Ersetzt man wTTwϕi = λiϕi(aus Gleichung (13) mit Indexwech­ sel) auf der rechten Seite von Gleichung (19) und setzt man ξi = wøi aus Gleichung (10), so ergibt sich:
Gleichung (20) zeigt, daß die i-te bewertete Objektraumfunk­ tion genau dem Term
entspricht.
Darüberhinaus ist die Rekonstruktion fr eines Objekts f durch Zerlegung in Terme eines Funktionensatzes ψ mathe­ matisch definiert durch:
wobei i = ψi g, was dem Anteil des Bilds entspricht, der in der i-ten Funktion ψi auftritt, der in der Bildzerlegung bei Verwendung von Gleichung (18) bestimmt wurde.
Kombiniert man Gleichung (20) und (21), so ergibt sich:
Gleichung (22) zeigt, daß eine Objektrekonstruktion erzielt wird durch Multiplikation der i-ten bewerteten singulären Objektraumfunktion ξi mit dem i-ten Koeffizienten i der, oder des Anteils des Bildes in, der entsprechenden i-ten singulären Bildraumfunktion ψi und anschließender Summation des Ergebnisses über alle i-eigenen Zustände. Einzelne komplexe rekonstruierte Objektamplituden oder P- und Q-Werte sind für das k-te Bildelement gegeben durch fr(k), wobei
das heißt die komplexe Amplitude des k-ten Bildelements gleich der Summe aller k-Punktwerte des Terms ξigi.
Die durch die Gleichung (22) und (23) ausgedrückte Rekonstruk­ tion ist unter der Voraussetzung brauchbar, daß das gesamte durch die Abbildungsanordnung eingeführte Rauschen N ver­ nachlässigbar ist verglichen mit der Störsignal-Untergrund­ intensität und unter der Voraussetzung, daß eine Nyquist- Bildabtastung angewendet wird. Dies ist bei allen Radars der Fall, die Szenen in einer Landschaft beobachten, die aus Targets in einem Störsignaluntergrund bestehen. Die Abbildungsanordnung kann jedoch auch in Situationen ver­ wendet werden, in denen das Rauschen die Bilddaten wesent­ lich beeinträchtigt. Darüberhinaus fällt die von der i-ten singulären Bildzustandsfunktion λi beigetragene Bildenergie ψi mit steigendem i, d. h. Funktionen höherer Ordnung tragen weniger Bildenergie bei. Wenn bei einigen i's ψi auf einen gleichen Wert oder unter den entsprechenden Anteil oder Beitrag Ni der Rauschenergie N des Gesamtsystems ab­ fällt, dann sollten dieser Term und Terme höherer Ordnung aus dem Zerlegungs/Rekonstruktionsverfahren eliminiert wer­ den. Bei weißem Rauschen ist der von der i-ten Funktion ψi beigetragene Anteil des Systemrauschens Ni eine Konstante für alle i und ist gleich N/M, wobei M die Gesamtanzahl der Singulärfunktionen in dem Satz ψ oder ø ist. Dement­ sprechend endet die Summierung in den Gleichungen (22) und (23) bei imax, wobei λimax der Eigenwert höchster Ordnung ist, für den λi < N/M noch gilt. Die Rekonstruktionsgleichung (23) kann dann vollständiger geschrieben werden als:
Es stellt sich heraus, daß das Abbrechen der fr(k)-Summation die Auflösung nicht wesentlich beeinträchtigt. Das Einschließen eines Terms mit einem signifikanten Anteil an Rauschen kann jedoch die Rekonstruktion ernsthaft beeinträchtigen. Die Wir­ kung jedes Terms ist umgekehrt proportional zu dem jeweili­ gen λi, so daß Terme mit kleinen und durch Rauschen beein­ trächtigten Werten von λi unverhältnismäßig verfälschte Er­ gebnisse erzeugen können.
Es ist jedoch ein größerer Vorteil der Erfindung, daß das Rauschen hier nicht so eine große Rolle spielt wie bei den Systemen nach den in der Beschreibungseinleitung zitierten Druckschriften. Bei diesen Systemen ändert sich das rekon­ struierte Objekt schlagartig und fälschlicherweise, falls ein Abbruch der Summation nicht erfolgt, sobald ein durch Rauschen verfälschter Term addiert wird. Erfindungsgemäß werden durch Rauschen verfälschte Bilddaten als Hintergrund­ störsignale behandelt und verarbeitet, wobei beide der Gauß'schen Statistik folgen. Dementsprechend hat das Beibe­ halten durch Rauschen verfälschter Terme nur die Wirkung, den Hintergrundstörsignalen durch Rauschen verursachte Stör­ signale hinzuzufügen. Dies verschlechtert nur den Kontrast zwischen den identifizierten Targets und dem Hintergrund. Anders ausgedrückt verschlechtert sich die Rekonstruktion mit steigendem Rauschen bei der Erfindung, und ein Abbrechen der Rekonstruktion ist vorteilhaft aber nicht notwendig.
Zusammenfassend läßt sich feststellen, daß der Bewertungs­ funktionsgenerator 30 eine Intensitätsbewertungsfunktion W aus der Bildintensitätsstatistik berechnet. Die Rechenanlage 31 berechnet die Objekt- und Bildraumfunktionssätze ø und ψ im Verfahrensschritt 32 aus den Eigenwertgleichungen (13) und (17), die das bekannte Impulsansprechverhalten T der Anordnung beinhalten, das im Verfahrensschritt 33 gespeichert wird und die die Amplitudenbewertungsfunktion w beinhalten, die aus W abgeleitet sind. Die Rechenanlage berechnet dann den Satz der bewerteten Objektraumfunktion nach der Defini­ tion der Gleichung (10). Der Bilddatensatz g wird dann im Verfahrensschritt 34 in eine Linearkombination des Funktions­ satzes ψ mit Hilfe der Gleichung (18) zerlegt. Dies führt zu Koeffizienten ψi g oder i, die identisch zu den Koeffi­ zienten sind, die bei der Objektzerlegung in Termen des Funktionssatzes ξ auftreten. Jeder Wert von λi wird dann im Verfahrensschritt 35 mit dem Anteil N/M des Abbildungs­ systemrauschen und mit allen Funktionen und Koeffizienten verglichen, für die die entsprechenden λi ≯N/M gelöscht sind. Die Rechenanlage 31 multipliziert jede übrigbleibende Funktion ξi mit dem entsprechenden Koeffizient i, wodurch die Objektzerlegung in Terme von ξ im Verfahrensschritt 36 erfolgt und berechnet im Verfahrensschritt 37 daraufhin den Beitrag giξi(k) zu der komplexen Amplitude des Bildele­ ments mit der Nummer k. Die Beiträge giξi(k) werden dann über alle i bei jedem Bildelement nacheinander summiert, um den geforderten Satz rekonstruierter Objektdaten zu er­ zeugen, das heißt, einen komplexen Datenwert oder P- und Q-Wert für jedes Bildelement. Dies ist analog zur Rekon­ struktion eines Signals aus dessen spektralen Fourier-Kom­ ponenten durch Addition der Beiträge jeder Komponente zu den entsprechenden Punkten des Signals. Nach einer Höhen­ detektion im Verfahrensschritt 38 zur Erzeugung von Ampli­ tudenwerten √(P2 + Q2) werden die rekonstruierten Objekt­ daten an den Objektspeicher 39 geliefert und werden im Ver­ fahrensschritt 40 angezeigt.
Die obenbeschriebene Berechnung erzeugt eine einzelne Stufe oder Iteration der Auflösungserhöhung, wie in Fig. 4 gezeigt ist, in der die Bilddaten im Graphen 72 zur im Graphen 74 gezeigten Rekonstruktion erhöht aufgelöst sind. Wie bereits obenstehend skizziert, wird die Berechnung mittels der Ite­ rationssteuereinheit 47 iteriert, um eine weitere signifikante Auflösungserhöhung wie folgt zu erhalten. Das Differenz­ glied 64 empfängt eine jeweilige Reihe von Amplitudenwerten √(P2 + Q2) von jedem der Hülldetektoren 62 und 63. Diese Reihen entsprechen der ersten Rekonstruktion und dem ur­ sprünglichen Bild (1. Zyklus) oder sukzessiven Rekonstruk­ tionen (spätere Zyklen). Wenn die komplexe Amplitude des k-ten Bildelements nach dem n-ten Iterationszyklus defi­ niert wird als fr n(k) dann hält der Speicher für das gül­ tige Objekt 60 alle fr n(k) und der Speicher 61 für das vorhergehende Objekt alle fr n - 1(k). Für n = 1 ist fr o(k) die ursprüngliche Bildinformation, die vom Rahmenspeicher 22 erhalten wurde. Das Differenzglied 64 empfängt Amplituden­ werte in Absolutstrichen fr n(k) und fr n-1(k) von den Hülldetektoren 62 und 63. Es berechnet die Differenz zwi­ schen aufeinanderfolgenden Intensitäten für jedes Bildele­ ment, quadriert diese und summiert die Differenzen über alle Bildelemente. Das Ergebnis wird durch die quadrierte Summe rekonstruierter Bildelementintensitäten dividiert, um ein Verhältnis R zu erzeugen. Dies ist gegeben durch:
Wenn R größer als 10-4 ist, hat die n-te Iteration eine Gesamtintensitätsänderung von mehr als 1% erzeugt. Eine weitere Iteration wird wie zuvor angegeben durchgeführt, indem fr n(k) komplexe Amplitudenwerte als Eingabewerte für den Höhendetektor 24 verwendet werden. Wenn R kleiner als 10-4 ist, wird die Iteration beendet. Es könnte natürlich auch ein anderes Kriterium oder ein anderer R-Wert für die Beendigung der Iteration gewählt werden.
Die schematisch in den Fig. 1 bis 3 illustrierte Vor­ richtung wurde anhand der Funktion ihrer Bauelemente be­ schrieben. Bezüglich der Ausführung der Bauelemente gibt es verschiedene Möglichkeiten, um den Erfindungsgedanken zu realisieren. So kann z. B. die Durchführung der Bewer­ tung und die Iterationssteuerung mittels einer Rechenan­ lage ausreichender Kapazität, ebenso wie die Zerlegung in Singulärfunktion durchgeführt werden. Dies entspräche einer Änderung der in Fig. 1 gezeigten Vorrichtung derart, daß die Rechenanlage 31 einen Bewertungsfunktionsgenerator 30 und eine Iterationssteuereinheit 47 umfaßt. Dies könnte jedoch zu einer verhältnismäßig niedrigen Verarbeitungs­ geschwindigkeit führen. Vorzugsweise ist der Generator 30 als eine ausschließlich für seine Funktion ausgebildete arithmetische Einheit ausgebildet, um die erforderlichen Berechnungen durchzuführen. Dies erfordert, daß die Adressen­ einheit 50 Bildelementunterbereichs-Intensitäten adressiert, zusammen mit einer arithmetischen Einheit oder einer Anord­ nung von Volladdierern 51, um die notwendigen wiederholten Additionen/Subtraktionen zur Multiplikation/Division durch­ zuführen, um die <I(k)<A und α(k) zu generieren. Das adaptive Setzen eines Schwellenwerts bei 53 erfolgt durch ein einfaches Multiplizierglied, um den Wert 5<I/k)<A zu liefern. Der Schwellendetektor 54 enthält ein Vergleichs­ glied, um I(k) und 5<I(k)<A zu vergleichen. Werte von I(k), die oberhalb von 5 <I(k)<A werden dem Element 55 zur Addition durch einen Volladdierer zugeführt und es sind ebenfalls Mittel zum Zählen ihrer Gesamtanzahl vorge­ sehen. <I(k)<B stellt einfach deren Summe dividiert durch deren Anzahl dar und die Division wird durch den gleichen oder einen weiteren Volladdierer durchgeführt, der zur wiederholten Zweierkomplementaddition, das heißt wohlbe­ kannten Digitaldivision ausgelegt ist. Die Erzeugung von Bewertungsfunktionen im Bauelement 56 erfordert einen Volladdierer für die Zweierkomplementaddition von <I(k)<B zu I(k). Daraufhin führt dieser oder ein entsprechender anderer Volladdierer die wiederholte Addition aus, die erforderlich ist, um α(k)(I(k) - <I(k)<B) zu entwickeln und die Summe (Gleichung (5)) <I(k)<B + α(k)(I(k) - <I(k)<B) wird berechnet, um W(k) zu liefern. Dies kann schnell mit einer ausschließlich dafür vorgesehenen arithmetischen Einheit durchgeführt werden.
Entsprechend kann die Iterationssteuereinheit 47 als eine speziell dafür ausgelegte Hardware-Einheit ausgeführt werden. Die Speicher 60 und 61 zusammen mit den Hüllendetektoren 62 und 63 sind wohlbekannte Geräte. Das Differenzglied 64 kann eine entsprechende Volladdiereranordnung aufweisen und der Schwellenwertdetektor 65 kann ein einfaches Ver­ gleicherglied sein. Die Wahl der Ausführungsformen der Hardware und der Software richtet sich nach konstruktions­ technischen Gesichtspunkten und den Erforderungen an die Arbeitsgeschwindigkeit. Entsprechendes gilt für die Spei­ cher 22, 25 und 39 und die Höhendetektoren 24 und 38 zusammen mit der Datenauswahleinheit 23, was deren Anordnung inner­ halb oder außerhalb der Rechenanlage betrifft.
Fig. 9 zeigt schematisch einen Teil eines Lichtradar- oder Lidarsystems. Das System weist einen Dauerstrich (cw) CO2- Laser 180 auf, der einen eben polarisierten Ausgangslicht­ strahl entlang des Ausbreitungswegs 181 erzeugt. Der Licht­ strahl trifft auf einen ersten Strahlteiler 182. Das von dem Strahlteiler 182 durchgelassene Licht tritt durch einen zweiten Strahlteiler 183 auf einen CO2-Laserverstärker 184, der ausgelegt ist, um 10 nsec/Pulse mit einer Wiederholungs­ frequenz von 10 kHz zu erzeugen. Eine erste Linse 185 er­ zeugt am Ausgang des Verstärkers ein paralleles Strahlen­ bündel zur Beleuchtung eines Streuobjektes 187 in einer entfernt gelegenen Szene. Von dem Objekt 187 gestreutes Licht wird mittels einer zweiten Linse 188 auf zwei Detektoren 189 und 190 fokussiert. Der Detektor 189 empfängt einen Bezugs-Lichtstrahl 191 vom Laser 180, der vorher am Strahl­ teiler 182 und an dem teilweise reflektierenden Spiegel 192 reflektiert wurde. Außerdem empfängt der Detektor 189 vom Objekt 187 gestreutes Licht, nachdem dieses durch den teil­ weise reflektierenden Spiegel 193 und durch den teilweise reflektierenden Spiegel 192 auf dem Ausbreitungsweg 194 durchgelassen wurde. Der Detektor 190 empfängt einen Bezugs­ lichtstrahl 195, der durch Reflexion des Laserlichts 181 am Strahlteiler 183 erzeugt wird und darauf ein π/2 oder Viertelwellenlängen-Verzögerungsglied 196 durchquert und an dem teilweise reflektierenden Spiegel 197 reflektiert wird. Von dem Objekt 187 gestreutes und an dem Spiegel 193 reflektiertes Licht gelangt über die Ausbreitungswege 198 und 199 zum Detektor 190, nachdem es am Spiegel 200 re­ flektiert wurde und durch den teilweise reflektierenden Spiegel 197 getreten ist. Das Verzögerungsglied 196 kann eine Gaszelle sein, mit einer geeigneten optischen Dicke, um den Strahl 195 um (n + 1/4) Wellenlängen zu verzögern, wobei n eine ganze beliebige Zahl ist. Der Gasdruck in der Zelle wird mittels bekannterferrometrischer Techniken justiert, um die korrekte Verzögerung zu erzeugen, d. h., das Verzögerungsglied 196 wird in einem Strahlengang eines Interferrometers angeordnet und der Gasdruck wird solange verändert, bis die Bewegung der Interferenzmuster die richtige Verzögerung anzeigt.
Die in Fig. 9 gezeigte Anordnung arbeitet wie folgt: Das Verzögerungsglied 196 führt eine π/2 Phasenverschiebung in den Bezugsstrahl 195, der auf den Detektor 190 trifft im Vergleich zu dem Strahl ein, der den Detektor 189 erreicht. Beide Detektoren 189 und 190 mischen ihre jeweiligen Bezugs­ strahlen 191 bzw. 195 mit dem von der Szene ausgesandten Licht 194 bzw. 199 und arbeiten somit als Homodynempfänger. Der Laser 180 wirkt als sein eigener Überlagerungsoszillator.
Wegen der π/2 Phasendifferenz zwischen den Bezugsstrahlen 191 und 195 werden Detektorausgangssignale mit einer rela­ tiven Phasendiffernz von π/2 an den Ausgängen 201 und 202 erzeugt. Diese Ausgabesignale liefern dementsprechend pha­ sengleiche und Quadratursignale P und Q, bzw. Komplex- Amplituden-Bilddaten. Diese Signale sind genau analog zu den P- und Q-Signalen, die am Ausgang der Signalverarbei­ tungseinheit 21 in Fig. 1 auftreten, und werden auf die gleiche Weise wie oben beschrieben bearbeitet, um eine Auflösungserhöhung zu erreichen.
Auf analoge Weise kann ein Sonarsystem zur erfindungsgemäßen Auflösungserhöhungen angepasst werden, da P- und Q-Signale mit­ tels Sonarwandleranordnungsprozessoren geliefert werden, die genauso verarbeitet werden können wie Radar- oder Lidar­ signale. Darüberhinaus stellt ein Sonarwandler sowohl einen Sender als auch einen Empfänger dar, so daß eine Wandleran­ ordnung gleiche Anzahlen von Sendern und Empfängern liefern, auf die die Erfindung ebenso angewendet werden kann.
Insoweit die vorstehende Beschreibung (insbesondere mit Bezug auf Fig. 1) die Berechnung der singulären Objekt- und Bild­ raumfunktion für die Bewertungsfunktion und das Impulsan­ sprechverhalten der Anordnung betrifft, so kann dies in einigen Fällen vereinfacht werden. Wie in Fig. 4, Graph 73 angegeben ist, kann die Bewertungsfunktion aus einem kon­ stanten Hintergrund bestehen, der eine Hauptkeule mit nähe­ rungsweise Gauß'schem Profil aufweist. Es können Sätze von Gauß'schen Profilen mit verschiedenen Höhen und Breiten zu­ sammen mit entsprechenden Sätzen von singulären Objekt- und Bildraumfunktionen gespeichert werden. Dies ist sinnvoll, wenn das Impulsansprechverhalten der Anordnung eine Konstante ist und die Funktionssätze sich nur mit der Bewertungsfunktion ändern. Dementsprechend würden die Singulärfunktionen aus den Bewertungsfunktionen mit Gauß'schem Profil und dem Impulsansprechverhalten vorberechnet werden, anstatt diese während der Bildanalyse zu berechnen. Das Erzeugen von Singulärfunktionen reduziert sich dann darauf, die gemes­ senen Bewertungsfunktionen so gut wie möglich an Gauß'sche Profile anzupassen und entsprechende gespeicherte Singulär­ funktionen auszuwählen. Die Anzahl möglicher genäherter Bewertungsfunktionen ist begrenzt, so daß die Speicherung von Singulärfunktionen nicht unpraktikabel sein muß. Das Anpassen der Bewertungsfunktion kann durch eine gut bekannte Korrelationstechnik erreicht werden. Dieses Vorgehen redu­ ziert die Computerzeit, die zur Bildverarbeitung benötigt wird, allerdings auf Kosten einer nunmehr erforderlichen erhöhten Speicherkapazität.

Claims (3)

1. Abbildungsanordnung mit vorgegebener Impulsantwort und einer kohärente Strahlung verwendenden Abbildungsvor­ richtung (10, 20, 21), die Daten über die komplexen Amplituden eines Bildes liefert, gekennzeichnet durch
  • a) eine Einheit (30, 31)
    • a) zur Verarbeitung von Bilddaten, um Bewertungs­ daten abzuleiten, die mit den jeweiligen Bild­ merkmalen verbunden sind, wobei die Wertungs­ daten zusammen eine Bewertungsfunktion bilden, und wobei die Bewertungsdaten für Bildelemente mit niedrigerer oder größerer Intensität be­ züglich der jeweiligen benachbarten Bildele­ mente sich unterscheiden und
    • b) zum Ableiten orthogonaler Sätze von Bildraum- und Objektraumsingularfunktionen aus der Bild­ systemimpulsantwort und aus der Bewertungs­ funktion,
    • c) zum Zerlegen von Bilddaten in eine Linearkom­ bination von Bildraumsingularfunktionen, um Zerlegungskoeffizienten zu erzeugen, und
    • d) zum Rekonstruieren von Objektdaten aus den Zerlegungskoeffizienten und Objektraumsingu­ larfunktionen, und
  • b) Mittel (38, 39, 40) zum Erzeugen von Bildinformatio­ nen aus den rekonstruierten Objektdaten.
2. Abbildungsanordnung nach Anspruch 1, dadurch gekennzeichnet, daß der Bewertungswert die Summe aus einem die Intensität des lokalen Hintergrunds wiedergebenden Term und einem Kontrastterm enthält.
3. Abbildungsanordnung nach Anspruch 2, dadurch gekennzeichnet, daß der Kontrastterm ungleich Null ist, wenn die relevante Bildelementsintensität ein vorgegebenes Vielfaches ei­ nes entsprechenden Mittelwerts der lokalen Bildele­ mentsintensitäten übersteigt.
DE3516745A 1984-05-10 1985-05-09 Ultrahochauflösende Abbildungsanordnung Expired - Fee Related DE3516745C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB8411916 1984-05-10

Publications (2)

Publication Number Publication Date
DE3516745A1 DE3516745A1 (de) 1995-10-05
DE3516745C2 true DE3516745C2 (de) 2000-08-17

Family

ID=10560723

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3516745A Expired - Fee Related DE3516745C2 (de) 1984-05-10 1985-05-09 Ultrahochauflösende Abbildungsanordnung

Country Status (5)

Country Link
US (1) US4716414A (de)
DE (1) DE3516745C2 (de)
FR (1) FR2694097B1 (de)
GB (1) GB2173663B (de)
IT (1) IT1242085B (de)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5383457A (en) * 1987-04-20 1995-01-24 National Fertility Institute Method and apparatus for processing images
US5009143A (en) * 1987-04-22 1991-04-23 Knopp John V Eigenvector synthesizer
WO1989007799A1 (en) * 1988-02-22 1989-08-24 Eastman Kodak Company Digital image noise suppression method using svd block transform
US4949313A (en) * 1988-04-20 1990-08-14 Olympus Optical Co., Ltd. Ultrasonic diagnostic apparatus and pulse compression apparatus for use therein
US4949312A (en) * 1988-04-20 1990-08-14 Olympus Optical Co., Ltd. Ultrasonic diagnostic apparatus and pulse compression apparatus for use therein
US4973111A (en) * 1988-09-14 1990-11-27 Case Western Reserve University Parametric image reconstruction using a high-resolution, high signal-to-noise technique
US4929951A (en) * 1988-12-23 1990-05-29 Hughes Aircraft Company Apparatus and method for transform space scanning imaging
US4973154A (en) * 1989-04-27 1990-11-27 Rockwell International Corporation Nonlinear optical ranging imager
US5297289A (en) * 1989-10-31 1994-03-22 Rockwell International Corporation System which cooperatively uses a systolic array processor and auxiliary processor for pixel signal enhancement
US5045860A (en) * 1990-06-27 1991-09-03 R & D Associates Method and arrangement for probabilistic determination of a target location
US5233541A (en) * 1990-08-10 1993-08-03 Kaman Aerospace Corporation Automatic target detection process
US5384573A (en) * 1990-10-29 1995-01-24 Essex Corporation Image synthesis using time sequential holography
US5357331A (en) * 1991-07-02 1994-10-18 Flockencier Stuart W System for processing reflected energy signals
US5668648A (en) * 1991-11-26 1997-09-16 Kabushiki Kaisha Toshiba Computer-assisted holographic display apparatus
EP1099959A3 (de) * 1991-12-20 2001-06-13 Essex Corporation Bildsynthese mit zeitsequentieller Holographie
US5227801A (en) * 1992-06-26 1993-07-13 The United States Of America As Represented By The Secretary Of The Navy High resolution radar profiling using higher-order statistics
DE69326320T2 (de) * 1993-02-11 2000-04-13 Agfa Gevaert Nv Verfahren zur schnellen interaktiven Offline-Verarbeitung von Röntgenbildern
US6041135A (en) * 1993-06-28 2000-03-21 Buytaert; Tom Guido Fast interactive off-line processing method for radiographic images
US5644386A (en) * 1995-01-11 1997-07-01 Loral Vought Systems Corp. Visual recognition system for LADAR sensors
GB2323990B (en) * 1996-01-26 2000-08-09 Secr Defence Radiation field analyzer
JP2877106B2 (ja) * 1996-11-18 1999-03-31 日本電気株式会社 アロングトラック・インターフェロメトリsar
DE19743884C2 (de) * 1997-10-04 2003-10-09 Claas Selbstfahr Erntemasch Vorrichtung und Verfahren zur berührungslosen Erkennung von Bearbeitungsgrenzen oder entsprechenden Leitgrößen
US5952957A (en) * 1998-05-01 1999-09-14 The United States Of America As Represented By The Secretary Of The Navy Wavelet transform of super-resolutions based on radar and infrared sensor fusion
IL133243A0 (en) 1999-03-30 2001-03-19 Univ Ramot A method and system for super resolution
US7221782B1 (en) 1999-06-24 2007-05-22 General Electric Company Method and apparatus for determining a dynamic range of a digital medical image
US6704440B1 (en) 1999-06-24 2004-03-09 General Electric Company Method and apparatus for processing a medical image containing clinical and non-clinical regions
US6460003B1 (en) 1999-07-01 2002-10-01 General Electric Company Apparatus and method for resolution calibration of radiographic images
US6633657B1 (en) 1999-07-15 2003-10-14 General Electric Company Method and apparatus for controlling a dynamic range of a digital diagnostic image
US6344893B1 (en) 2000-06-19 2002-02-05 Ramot University Authority For Applied Research And Industrial Development Ltd. Super-resolving imaging system
AU2002251830A1 (en) * 2001-01-26 2002-08-06 Colorado State University Research Foundation Analysis of gene expression and biological function using optical imaging
US8958654B1 (en) * 2001-04-25 2015-02-17 Lockheed Martin Corporation Method and apparatus for enhancing three-dimensional imagery data
US20040115683A1 (en) * 2002-01-28 2004-06-17 Medford June Iris Analysis of gene expression and biological function using optical imaging
US8184043B2 (en) * 2010-03-12 2012-05-22 The Boeing Company Super-resolution imaging radar
US8184044B1 (en) * 2010-03-12 2012-05-22 The Boeing Company Super resolution radar image extraction procedure
US8736484B2 (en) * 2010-08-11 2014-05-27 Lockheed Martin Corporation Enhanced-resolution phased array radar
US8854249B2 (en) 2010-08-26 2014-10-07 Lawrence Livermore National Security, Llc Spatially assisted down-track median filter for GPR image post-processing
US8818124B1 (en) 2011-03-04 2014-08-26 Exelis, Inc. Methods, apparatus, and systems for super resolution of LIDAR data sets
US20140160476A1 (en) * 2012-12-07 2014-06-12 Massachusetts Institute Of Technology Method and Apparatus for Performing Spectral Classification
US9154698B2 (en) * 2013-06-19 2015-10-06 Qualcomm Technologies, Inc. System and method for single-frame based super resolution interpolation for digital cameras
WO2019093979A1 (en) * 2017-11-08 2019-05-16 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi An image generation method
US11150349B2 (en) * 2018-08-16 2021-10-19 Wei Chen Multi-line, high-definition LiDAR device and method with integrated direct spatial reference
DE102019213904A1 (de) * 2019-09-12 2021-03-18 Carl Zeiss Smt Gmbh Verfahren zur Erfassung einer Objektstruktur sowie Vorrichtung zur Durchführung des Verfahrens
CN112698800B (zh) * 2020-12-29 2022-09-30 卡莱特云科技股份有限公司 一种显示子画面重组的方法、装置及计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3942150A (en) * 1974-08-12 1976-03-02 The United States Of America As Represented By The Secretary Of The Navy Correction of spatial non-uniformities in sonar, radar, and holographic acoustic imaging systems
US3953822A (en) * 1973-10-15 1976-04-27 Rca Corporation Wave-energy imaging technique
US4003311A (en) * 1975-08-13 1977-01-18 Bardin Karl D Gravure printing method
GB2113501A (en) * 1981-11-26 1983-08-03 Secr Defence Imaging system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3611369A (en) * 1969-05-27 1971-10-05 Burroughs Corp Quantizer system with adaptive automatic clutter elimination
US4127873A (en) * 1977-05-20 1978-11-28 Rca Corporation Image resolution enhancement method and apparatus
US4290049A (en) * 1979-09-10 1981-09-15 Environmental Research Institute Of Michigan Dynamic data correction generator for an image analyzer system
JPH0128427B2 (de) * 1980-04-16 1989-06-02 Eastman Kodak Co

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3953822A (en) * 1973-10-15 1976-04-27 Rca Corporation Wave-energy imaging technique
US3942150A (en) * 1974-08-12 1976-03-02 The United States Of America As Represented By The Secretary Of The Navy Correction of spatial non-uniformities in sonar, radar, and holographic acoustic imaging systems
US4003311A (en) * 1975-08-13 1977-01-18 Bardin Karl D Gravure printing method
GB2113501A (en) * 1981-11-26 1983-08-03 Secr Defence Imaging system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BERTERO, M., PIKE, E.R., "Resolution in diffraction-limited imaging, a singular value analysis", in Optica Acta, Vol.29, 1982, No.6, S.727-746 *

Also Published As

Publication number Publication date
GB2173663A (en) 1986-10-15
DE3516745A1 (de) 1995-10-05
FR2694097A1 (fr) 1994-01-28
IT8548043A0 (it) 1985-05-06
GB2173663B (en) 1987-07-29
US4716414A (en) 1987-12-29
FR2694097B1 (fr) 1995-12-22
IT1242085B (it) 1994-02-16

Similar Documents

Publication Publication Date Title
DE3516745C2 (de) Ultrahochauflösende Abbildungsanordnung
DE69433175T2 (de) Verfahren zur gleichzeitigen messung der positionen von mehr als einer oberfläche in metallurgischen prozessen
DE102007055217B4 (de) Verfahren und Vorrichtung zum ortsaufgelösten Erfassen und Rekonstruieren von Objekten mittels Mikrowellen
AT521120B1 (de) Verfahren und Vorrichtung zum Ermitteln eines Radarquerschnitts, Verfahren zum Trainieren eines Wechselwirkungsmodells sowie Radarzielemulator und Prüfstand
DE112006000738T5 (de) Verfahren zum Analysieren einer Substanz in einem Behälter
DE4304275A1 (de) Verfahren und Vorrichtung zum Erhöhen der Bildwechselfrequenz und der Auflösung eines Phased-Array-Bildsystemes
EP2718740B1 (de) Verfahren und vorrichtung zur erweiterung der ausleuchtung eines prüfobjekts
DE69637015T2 (de) Methode zur rekonstruktion von teilchenwellen in einer teilchen-optischen vorrichtung
WO2010127739A1 (de) Verfahren zur erkennung eines verhüllten dielektrischen objekts
DE3009753C2 (de) Radar zur Anzeige eines bewegten Zieles (MTI)
DE2849807A1 (de) Radar zur feststellung bewegter ziele
EP0837334B1 (de) Verfahren und Vorrichtung zur Bestimmung einfallender Empfangsleistung oder -energie wenigstens eines Signales
DE60109363T2 (de) Monopuls-Radarprozessor zur Auflösung von zwei Signalquellen
DE4223676C2 (de) Verfahren zur adaptiven räumlichen Ausfilterung eines gewünschten Signals und zur Unterdrückung von Störersignalen beim Funksignalempfang
DE3301625C1 (de) Verfahren und Vorrichtung zum Vermindern der Leistung von Störsignalen, die aus den Nebenkeulen der Antenne eines frequenzagilen Radargeräts empfangen werden
DE2804128C2 (de) Marine-Radarsystem
EP1756983B1 (de) Verfahren zum detektieren von zielen
EP1460450B1 (de) Verfahren zur synthetischen Generierung von Sonardaten
EP2293035A1 (de) Verfahren und Vorrichtung zur Darstellung einer Abtastfunktion
WO2015024811A1 (de) Streulichtreferenzpixel
DE4206570C2 (de) Ultraschall-Geschwindigkeitsmesser
DE60224864T2 (de) Verfahren zum Bestimmen der Werte eines elektromagnetischen Feldes, welches von einer Funkbasisstation in einer urbanen Umgebung erzeugt wird
EP3249426B1 (de) Synthetik-apertur-radarverfahren
DE102005037628B3 (de) Verfahren zum Erfassen eines Objektes mittels Radar
DE10153443C1 (de) Verfahren zur passiven Ortung von schallabstrahlenden Zielen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: QINETIQ LTD., LONDON, GB

8339 Ceased/non-payment of the annual fee