DE68920422T2 - Bildformungs-lidarsystem. - Google Patents

Bildformungs-lidarsystem.

Info

Publication number
DE68920422T2
DE68920422T2 DE68920422T DE68920422T DE68920422T2 DE 68920422 T2 DE68920422 T2 DE 68920422T2 DE 68920422 T DE68920422 T DE 68920422T DE 68920422 T DE68920422 T DE 68920422T DE 68920422 T2 DE68920422 T2 DE 68920422T2
Authority
DE
Germany
Prior art keywords
image
light
light pulses
camera
water
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE68920422T
Other languages
English (en)
Other versions
DE68920422D1 (de
Inventor
Bobby Ulich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kaman Aerospace Corp
Original Assignee
Kaman Aerospace Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kaman Aerospace Corp filed Critical Kaman Aerospace Corp
Application granted granted Critical
Publication of DE68920422D1 publication Critical patent/DE68920422D1/de
Publication of DE68920422T2 publication Critical patent/DE68920422T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Telephone Function (AREA)
  • Developing Agents For Electrophotography (AREA)
  • Photoreceptors In Electrophotography (AREA)
  • Measurement Of Optical Distance (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Fire-Detection Mechanisms (AREA)

Description

    Hintergrund der Erfindung:
  • Die vorliegende Erfindung bezieht sich allgemein auf ein Verfahren und eine Vorrichtung zur bildlichen Ferndarstellung von Unterwasserobjekten. Insbesondere bezieht sich die vorliegende Erfindung auf ein Verfahren zur Erfassung und bildlichen Darstellung von Unterwasserobjekten mittels eines neuartigen LIDAR (light detection and ranging)-Systems (Lichterfassungs- und Entfernungsmessungs-Systems).
  • Es besteht ein fortwährendes Bedürfnis, Verfahren zu entwickeln zum Erfassen von Unterwasserzielen von entfernten Stellen aus (beispielsweise aus der Luft), und über relativ kurze Zeitperioden. Dies ist von besonderer Bedeutung in dem Fall gewisser militärischer Anwendungen, wo beispielsweise die Erfassung von vertäuten Minen von Hubschraubern und anderen Luftfahrzeugen aus entscheidend ist, um sichere Meere zu gewährleisten. Gegenwärtig müssen umständliche und zeitraubende Kabelvorrichtungen verwendet werden. Diese Vorrichtungen werden in das Wasser abgesenkt, und können natürlich leicht beschädigt werden und verlorengehen. Kabelvorrichtungen machen außerdem die Zielsuche relativ langsam, und können nur Ziele erfassen, ohne eine bildliche Darstellung zu liefern.
  • Außer der Erfassung von Unterwasserminen umfassen andere militärische Anwendungen zur Unterwasser-Zielerfassung die Erfassung von Unterseebooten und Nachrichtenbojen. Es gibt auch eine Reihe von zivilen Anwendungen für ein genaues System zur Fernerfassung von Unterwasserobjekten.
  • Es ist jedoch kein funktionsfähiges System zur Fernerfassung und bildlichen Darstellung von Objekten unter Wasser (oder Objekten, die durch andere Medien, wie Eis, Schnee, Nebel, Rauch und Staub verborgen werden) bekannt, mit dem eine genaue und präzise bildliche Darstellung über kurze Zeitperioden und von einer Vielzahl von fernen Plattformen aus, einschließlich Flugzeugen, Schiffen und Unterseebooten, erhalten wird.
  • In US-A-4.707.128 wird ein Bildwiedergabesystem beschrieben, das für die Verwendung in trüben Medien, wie beispielsweise Meerwasser bestimmt ist. Bei diesem Bildwiedergabesystem werden stark gebündelte Lichtimpulse verwendet, um ein Ziel punktweise abzutasten. Die reflektierten Lichtimpulse werden nach Ablenkung über einen Strahlenteiler erfaßt, und es wird ein Signal erzeugt, das repräsentativ für die Intensität eines zurückgeworfenen Strahlimpulses ist. Um das auf das gestreute Licht zurückzuführende Signal weitgehend zu eliminieren, wird ein Abtast/Speichermodul aktiviert, um nur das Ausgangssignal abzutasten und zu speichern, das auf den direkt reflektierten Impuls zurückzuführen ist. Um dies zu erreichen, wird der Abtast/Speichermodul des Laserimpulsgenerators nach einer geeigneten Verzögerung getriggert, die von der Entfernung des Ziels bestimmt wird.
  • In US-A-4.174.524 wird ein System beschrieben zur kartographischen Tiefenerfassung von einem über dem Wasser fliegenden Flugzeug aus. Ein Signalkomparator vergleicht dabei jedes der reflektierten Strahlungssignale mit dem Luft/Wasser-Grenzflächen-Strahlungssignal und steuert einen Bildschirm, der die Tiefe der reflektierenden Oberfläche gegenüber der vorgegebenen Fläche veranschaulicht.
  • Der Zweck der vorliegenden Erfindung ist, ein Verfahren und eine Vorrichtung zur Erfassung und bildlichen Darstellung eines von einem zurückstreuenden Medium umhüllten Objekts vorzuschlagen, wobei das abgebildete Objekt ein verbessertes Signal/Rauschverhältnis aufweist.
  • Dieser Zweck wird mittels eines in dem Patentanspruch 1 beanspruchten Verfahrens und einer in dem Patentanspruch 16 beanspruchten Vorrichtung erreicht.
  • Die vorliegende Erfindung wird in dieser Beschreibung als LIDAR- Bilderzeugungssystem bezeichnet. Bei bevorzugten Ausführungsformen der vorliegenden Erfindung wird ein Laser verwendet, um kurze Lichtimpulse mit Impulsbreiten in der Größenordnung von Nanosekunden zu erzeugen. Das Laserlicht wird durch eine Optik expandiert und hinunter auf die Oberfläche des Wassers und auf ein Objekt oder Ziel gesandt. Verstärkte CCD (charged coupled device)-Kameras (Kameras mit ladungsgekoppeltem Baustein) werden nach einer Zeitverzögerung, die der Laufzeit bis zu dem Ziel und wieder zurück entspricht, elektronisch aufgesteuert. Diese Zeitsteuerung eliminiert das Licht, das von dem Wasser vor und hinter dem Ziel gestreut wird. Dies hat zur Folge, daß die verschleiernde Helligkeit des Wassers wesentlich abgeschwächt wird und schwache Zielumrisse gesehen werden können. Die sich ergebenden gategesteuerten Bilder (die auf einem Bildschirm wiedergegeben werden) haben genügend räumliche Auflösung, um das Ziel zu klassifizieren und/oder zu identifizieren. Dieses bilderzeugende Merkmal bietet die Möglichkeit einer verminderten Fehlalarmhäufigkeit im Vergleich zu einem nicht-bilderzeugenden System.
  • Das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung nutzt die Tatsache aus, daß alle undurchsichtigen Ziele einen Schatten werfen. Die Belichtung der zwei Kameras des Systems ist zeitlich so gesteuert, daß eine Kamera ein Bild des Ziels gegenüber dem von dem Wasser zurückgestreuten Licht liefert, während die andere Kamera ein Bild des Schattens des Ziels gegenüber dem von dem Wasser zurückgestreuten Licht erzeugt. Diese zwei Bilder werden dann voneinander subtrahiert (z.B. differentielle Bilderzeugung), um die Erfaßbarkeit des Ziels zu verbessern. Das subtrahierte Bild kann dann farblich dargestellt werden, um die Identifizierung des Ziels zu erleichtern.
  • Die Subtraktion bei den zwei Bildern ergibt in der Tat ein verbessertes Signal/Rauschverhältnis (SRV) des abgebildeten Ziels. Das bei der differentiellen Bilderzeugung erhaltene SRV wird von einem theoretischen Modell vorhergesagt, und ist gleich den erfaßten Zielphotonen minus den erfaßten Wasserhintergrund-Photonen, geteilt durch die Quadratwurzel aus der Summe der erfaßten Photonen.
  • Die vorliegende Erfindung kann sowohl in der Nacht, als auch am Tag eingesetzt werden. Für den Einsatz am Tag werden Bandpaßfilter, die bezüglich der Laserlinie zentriert sind und eine Bandbreite von einigen Nanometern haben, auf die Kameralinsen aufgesetzt. Die Kombination der kurzen Belichtungszeit der Kameras mit der Abschwächung durch das Bandpaßfilter bewirkt, daß der Beitrag des Sonnenlichts zu den Bildern vernachlässigbar ist.
  • Das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung ist nicht auf die Bilderzeugung durch die Luft/Wasser-Grenzfläche hindurch beschränkt. Ein identisch es System kann von einem Unterwasserfahrzeug aus eingesetzt werden, um Bilder in einer beliebigen Richtung unter dem Wasser wiederzugeben. In ähnlicher Weise könnte diese Erfindung verwendet werden, um durch Eis (wie beispielsweise die polaren Eisdecken), und andere Medien hindurchzusehen. Die einzige Anforderung an die physikalische Form des Mediums ist in der Tat, daß das Medium über einen Entfernungsbereich, der mehreren Kamera-Gatebreiten entspricht, mindestens teilweise lichtdurchlässig ist. Das Medium kann daher Wasser, Dampf, Nebel, Rauch, Eis, Schnee, Aerosole, Staub, usw. umfassen.
  • Die oben diskutierten und andere Merkmale und Vorteile der vorliegenden Erfindung werden für Fachleute auf diesem Gebiet aufgrund der folgenden ausführlichen Beschreibung und der Zeichnungen ersichtlich und verständlich werden.
  • Kurze Beschreibung der Zeichnungen:
  • Im Folgenden wird auf die Zeichnungen Bezug genommen, bei denen in den verschiedenen FIGUREN gleiche Elemente mit den gleichen Kennziffern bezeichnet sind.
  • Die FIGUR 1 ist ein Blockschaltbild, das das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung wiedergibt.
  • Die FIGUR 2 ist eine schematische Darstellung des gepulsten Lasers, der bei dem System der FIGUR 1 verwendet wird.
  • Die FIGUR 3 ist eine Darstellung eines räumlichen Profils eines einzelnen Impulses des Lasers der FIGUR 2.
  • Die FIGUR 4 ist ein schematisches Schaltbild von einer der CCD-Kameras, die in Verbindung mit dem System der FIGUR 1 verwendet werden.
  • Die FIGUR 5 ist ein schematisches Schaltbild des Zeitsteuersystems für die CCD-Kameras der FIGUR 4.
  • Die FIGUR 6 ist ein schematisches Schaltbild des Video- Verarbeitungssystems, das bei dem System der FIGUR 1 verwendet wird.
  • Beschreibung der bevorzugten Ausführungsform:
  • Zunächst wird auf die FIGUR 1 Bezug genommen. Das LIDAR- Bilderzeugungssystem der vorliegenden Erfindung weist im allgemeinen einen Laser 10 auf, der verwendet wird, um kurze Lichtimpulse mit Impulsbreiten in der Größenordnung von Nanosekunden (z.B. weniger als ungefähr 10 nm) zu erzeugen. Das Laserlicht wird durch eine Optik 12 expandiert und hinunter auf die Oberfläche 14 eines Wasserkörpers 16 gesandt. Zwei verstärkte CCD- Kameras 18 und 20 werden nach einer Zeitverzögerung, die der Laufzeit bis zu einem Ziel 26 und wieder zurück entspricht, über Impulszeitsteuergeneratoren 22 und 24 elektronisch aufgesteuert. Diese Zeitsteuerung eliminiert das von dem Wasser vor und hinter dem Ziel gestreute Licht. Dies hat zur Folge, daß die verschleiernde Helligkeit des Wassers stark abgeschwächt wird und schwache Zielumrisse erkannt werden können. Die von den Kameras 18 und 20 empfangenen Lichtsignale werden von dem Videoprozessor 28 verarbeitet und auf dem Bildschirm 30 wiedergegeben. Die sich ergebenden gategesteuerten Bilder haben eine genügende räumliche Auflösung, um das Ziel zu klassifizieren und/oder zu identifizieren.
  • Das LIDAR-System der FIGUR 1 kann sowohl in der Nacht, als auch am Tag eingesetzt werden. Für den Einsatz am Tag werden Bandpaßfilter 32, die bezüglich der Laserlinie zentriert sind und eine Bandbreite von einigen Nanometern haben, auf die Kameralinsen aufgesetzt. Die Kombination der kurzen Belichtungszeit der Kameras mit der Abschwächung durch das Bandpaßfilter bewirkt, daß der Beitrag des Sonnenlichts zu den Bildern vernachlässigbar ist. Wahlweise können auch zwei Polarisationsfilter-Paare 34 verwendet werden.
  • Bei Ozeananwendungen wird eine Photodiode oder eine Photomultiplier- Röhre 35 verwendet. Das Reflexionsvermögen von Meerwasser beträgt ungefähr 0,02, so daß ein Bruchteil des Laserlichts von der Oberfläche reflektiert wird und von der Lawinenphotodiode oder Photomultiplier-Röhre 35 erfaßt wird. Dieses Oberflächen-Rücksignal wird zum Einstellen der Zeitsteuerverzögerung verwendet, um Veränderungen der Höhe der Plattform zu berücksichtigen. Die Wellenbewegung auf der Oberfläche beeinflußt das Bild von Unterwasserobjekten, wobei sie bewirkt, daß das Bild zittert und sogar in mehrere Bilder aufbricht. Die Formen und Einzelheiten der Objekte sind jedoch für einen Beobachter, der das Bild betrachtet, noch erkennbar, da das Auge dazu neigt, die Bewegung der Wellen auszumitteln.
  • Die Verwendung von zwei ICCD-Kameras 18 und 20, um eine differentielle Bilderzeugung zu verwirklichen, ist ein wichtiges Merkmal der vorliegenden Erfindung, wobei diese zwei Kameras miteinander kombiniert werden, um die Erfaßbarkeit und die bildliche Darstellung des Unterwasserobjekts zu verbessern. Bei den zwei Kameras wird die Tatsache ausgenutzt, daß alle undurchsichtigen Ziele einen Schatten werfen. Die Belichtung der zwei Kameras wird zeitlich so gesteuert, daß eine Kamera ein Bild des Ziels gegenüber dem von dem Wasser zurückgestreuten Licht erzeugt, während die andere Kamera ein Bild des Schattens des Ziels gegenüber dem von dem Wasser zurückgestreuten Licht erzeugt. Diese zwei Bilder werden dann voneinander subtrahiert, um die Erfaßbarkeit des Ziels zu verbessern. Das subtrahierte Bild kann dann farblich dargestellt werden, um die Identifizierung des Ziels zu erleichtern.
  • Das erfindungsgemäße Merkmal differentielle Bilderzeugung verbessert das Signal/Rauschverhältnis (SRV). Das Signal/Rauschverhältnis (SRV) eines abgebildeten Ziels wird von den Eigenschaften des Wassers und der Tiefe des Ziels beeinflußt. Das Laserlicht wird infolge Absorption und Streuung durch das Wasser geschwächt. Je tiefer ein Ziel gelegen ist, desto weniger Licht erreicht das Ziel, und desto weniger Licht wird nach der Sammeloptik des Systems zurückgesandt. Der wirksame Abschwächungskoeffizient ist der Koeffizient K für die diffuse Abschwächung durch das Wasser. K reicht von einem Wert von ungefähr 0,05 pro Meter in klarem, tiefem Ozeanwasser bis zu Werten von 1,0 pro Meter in Küstenwasser. Das SRV des Systems wird außerdem von der Laserimpulsenergie, den Flächen der Kameralinsen, der Höhe des Systems über dem Wasser, dem Reflexionsvermögen des Ziels, und der Quantenausbeute des Kamera-Erfassungssystems beeinflußt. Um das SRV eines Ziels für verschiedene Tiefen und K-Werte vorherzusagen, wurde ein theoretisches Modell entwickelt. Da die Kameras verstärkt werden, ist das dominierende Rauschen beim Erfassen eines Ziels das inhärente Photonenrauschen. Das SRV ist dann gleich den erfaßten Zielphotonen minus den erfaßten Wasserhintergrund-Photonen, geteilt durch die Quadratwurzel aus der Summe der erfaßten Photonen.
  • Die vorliegende Erfindung wird nun wesentlich ausführlicher beschrieben. Die folgende Beschreibung bezieht sich auf eine bevorzugte Ausführungsform, und die Modelle der einzelnen Geräte, die Hersteller, und ähnliche Einzelheiten werden nur als Beispiel angegeben.
  • Gepulster Laser:
  • Das bevorzugte Lasersystem, das bei dem System der vorliegenden Erfindung verwendet wird, ist ein gepulster Spektra Physics DCR-4 Nd:YAG- Laser, der kurze Infrarotlicht-Impulse bei 1064 nm aussendet. Der Laser wird mittels eines Frequenzvervielfachers, der einen Frequenzverdoppelungskristall enthält, im grünen Bereich (532 nm) betrieben. Der Frequenzvervielfacher ist vor der Austrittsöffnung des Laserhohlraums extern angebracht. Der Winkel, unter dem der anfängliche Laserimpuls (1064 nm) auf den Kristall auffällt, kann fein abgestimmt werden, so daß der Prozentsatz an grünem Licht gegenüber dem IR, das aus dem Frequenzvervielfacher austritt, variiert werden kann. Im allgemeinen hat der Frequenzvervielfacher einen Wirkungsgrad von ungefähr 50%, so daß die Ausgangsleistung in dem grünen Bereich ungefähr die Hälfte der Infrarot-Eingangsleistung beträgt.
  • Wie in der FIGUR 2 gezeigt ist, wird bei dem gepulsten Nd:YAG-Laser ein beugungsgekoppelter Resonator 36 verwendet, bei dem eine hohe Energie, eine gute Stabilität, eine gute Strahlqualität, und ein hoher Grad von räumlicher Kohärenz erhalten wird. Der Nd:YAG-Stab wird mittels einer Hochspannungsblitzlampe 38 optisch angeregt. Der Ausgangskoppler (Frontlinse 40) hat einen einzelnen Fleck 42 mit hohem Reflexionsvermögen, der in dem Zentrum des konvexen Substrats gelegen ist. Der hintere Spiegel 44 ist ein konkaver Hochleistungs-Reflektor, der den Strahl parallel macht und die thermische Linsenwirkung des Nd:YAG-Stabes kompensiert. Der parallele Strahl verläuft auf seinem Austrittsweg durch den Stab hindurch, und das Licht wird um des Rand des auf dem vorderen Ausgangskoppler gelegenen Flecks herum gebeugt. Dabei wird ein charakteristisches räumliches "Flußverstärker"- Profil erzeugt, wie in der FIGUR 3 gezeigt ist. Um die zeitliche Breite des Impulses zu regeln, wird ein Q-Switch (Pockels-Zelle) in Verbindung mit einem Marx-Band und einer Lambda-Viertel-Platte verwendet. Die anfängliche Energiespeicherung erfolgt durch die Lambda-Viertel-Platte. Um den Lichtimpuls zu erzeugen, wird eine sehr schnelle Hochspannungs-Wellenform auf die Pockels-Zelle gegeben.
  • Die bevorzugten Ausgangsspezifikationen des für das System der vorliegenden Erfindung verwendeten Nd:YAG-Lasers sind:
  • Impulsbreite bei 532 nm » 3 ns
  • Impulsenergie bei 532 nm » 550 Millijoule
  • Impulsfrequenz 15 Hz
  • Ausgangsimpulsinstabilität < 0,5 nsec bezüglich des Synchronisationsimpulses
  • Gesamtgewicht der Einheit » 230 kg
  • Der Laser wird extern gekühlt mittels eines unabhängigen Kühlsystems. Außerdem werden alle Hohlräume entlüftet. Das Kühlsystem, die Elektronik und das Entlüftungssystem sind in einer getrennten Stromversorgung untergebracht, die auf einem Rack montierbar ist. Alle Kabel und Luft- und Wasserleitungen sind über eine 3 m lange Nabelschnur mit dem Laserkopf und der Stromversorgung verbunden. Der Laser kann mit Wechselstrom von 208V, 60Hz, einphasig, oder von 120/220V betrieben werden.
  • Kameras:
  • Bei dem bevorzugten System der vorliegenden Erfindung werden zwei Marco Scientific-Kameras, Modell 201 verwendet, von denen eine in der FIGUR 4 wiedergegeben ist. Der bei diesen Kameras verwendete Bildsensor 46 ist ein Thompson CSF charge coupled device (CCD), Modell TH-7882-FO, der von der CCD-Elektronikpackung 47 gesteuert wird. Dieser spezielle CCD weist ein Faseroptikfenster 48 auf, das verwendet wird, um den Sensor an eine Verstärkerröhre anzukoppeln. Die Verstärkerröhre 50 dient sowohl als Lichtverstärker, als auch als ultraschneller Verschluß, der durch einen Hochspannungsverstärker 52 gesteuert wird. Diese Kameras enthalten außerdem einen eingebauten digitalen Einzelbild-Speicher/Abtast-Wandler 54, dessen Ausgangssignal in eine analoges RS170-Signal umgewandelt wird zwecks Wiedergabe auf einem Standardmonitor 30 und zwecks weiterer Bildverarbeitung.
  • Die Verstärkerröhre 50 ist eine DEP-Verstärkerröhre, Modell XX1420, mit zwei Verstärkungsstufen. Die erste ist ein Verstärker vom Typ Gen II mit Mikrokanalplatte (MKP); die zweite ist eine fokussierte Gen I-Näherungsdiode. Die Netto-Helligkeitsverstärkung ist nominal 100.000. Die S-20-Photokathode der Röhre definiert die Farbempfindlichkeit für die gesamte Kamera und legt die Quantenausbeute-Begrenzung bei ungefähr 7% fest. Der Anoden-Phosphor an dem hinteren Ende der Röhre ist faseroptisch mit dem CCD-Sensor gekoppelt. Ein Steuerschalter an dem Kameragehäuse ermöglicht die Auswahl einer Verstärker-Gatebreite von 10, 20 oder 40 nsec. Dies entspricht einer Belichtungseinstellung für die Kamera.
  • Der verwendete CCD ist eine neuartige Einzelbild- Übertragungsvorrichtung. Bei den bisherigen bekannten RS170-kompatiblen Einzelbild-Übertragungsvorrichtungen wird normalerweise ein Bild auf der Bildfläche integriert und dann nach einem angrenzenden Speichergebiet des CCD verschoben. Bei jeder neuen Fernsehzeile schiebt das horizontale Register die gespeicherte Information hinaus. Da das normale Fernsehen in einem Halbbild-Modus arbeitet, kann der CCD infolge einer Phasenverschiebung zwischen dem ungeraden und dem geraden Halbbild in einer Art von Halbbild-Auslesemodus arbeiten. Bei diesen bisherigen Bausteinen belegt die Speicherfläche den halben Sensor, und nur die Hälfte der Elemente integriert tatsächlich Licht. Es ist wichtig, anzumerken, daß der bei der erfindungsgemäßen Kamera vom Modell 201 verwendete Sensor die gesamte Fläche des Chips für die Lichtintegration ausnutzt, und daher im allgemeinen nicht mit dem RS170-Standardbetrieb kompatibel ist. Wie nachstehend diskutiert wird, ergeben sich deutliche Vorteile bei der maximalen Empfindlichkeit des Systems, wenn eine Chipfläche mit 100% Empfindlichkeit verwendet wird.
  • Der CCD weist 568 Zeilen mal 382 Spalten mit quadratischen Pixeln von 23 Mikrometer in einem aneinandergrenzenden Format auf. Von dieser Anordnung werden nur nominal 512 Zeilen verwendet, um das richtige Bildseitenverhältnis zu verwirklichen zwecks Wiedergabe auf einem Standard-Videomonitor (Bildseitenverhältnis 4:3). Infolge des Wunsches nach einem maximalen Signal/Rauschverhältnis und infolge der begrenzten Anforderung bezüglich der räumlichen Auflösung wird bei der Kamera vom Modell 201 das Pixel-Binning ausgenutzt. Das horizontale Register verschiebt zwei Ladungspakete nach jeder Ladungserfassungsstufe, bevor die Stufe wieder geltend gemacht wird, und vier CCD-Zeilen werden nach dem horizontalen Schieberegister verschoben und vor der Übertragung summiert. Auf diese Weise ergibt sich eine wirksame Anordnung mit 128 Zeilen mal 191 Spalten von Elementen (Bins), die eine Größe von 92 mm x 46 mm haben. Jedes dieser Bins hat die gleiche Auslese-Rauschbegrenzung wie ein einzelnes Pixel, aber erfaßt das Signal 8 Mal. Das Binning ergibt daher eine Verbesserung des SRV von ungefähr 2,8.
  • Wie oben erwähnt wurde, ist der hier verwendete CCD im allgemeinen nicht kompatibel mit dem RS170-Standard-Video-Ausgangssignal. Bei dem LIDAR-Bilderzeugungssystem der vorliegenden Erfindung läuft die folgende Sequenz ab, um ein geeignetes Video-Ausgangssignal zu erhalten:
  • (1) Bei dem CCD erfolgt eine kontinuierliche Abwärtsverschiebung bei den horizontalen Schieberegistern, um eine eventuelle Dunkelstrom- Bildung zu löschen.
  • (2) Ein externes Triggersignal schaltet den Verstärker ein, um eine Belichtung zu starten. Bei Eingang dieses Signals wird der CCD- Schiebemodus unterbrochen, und während der nächsten 3,2 msec ist der CCD in dem Integrationsmodus. Die 3,2 msec ermöglichen dem Phosphor-Nachleuchten, nach der kurzen Belichtung (20-40 nsec) bis auf weniger als 5% abzuklingen, wodurch sie zur Optimierung des SRV dienen.
  • (3) Am Ende der 3,2 msec wird der CCD in den Auslesemodus umgeschaltet, wo die angehäufte Ladung für jedes Bin in den digitalen Einzelbildspeicher eingelesen wird. In dem Einzelbildspeicher erfolgt zusätzlich zu der Digitalisierung der Daten eine Formatmanipulation, bei der das Sensorbild tatsächlich um 90 Grad gedreht wird (das heißt, die Spalten werden in Zeilen umgewandelt, und umgekehrt). Das Bildseitenverhältnis 3:4 des Sensors wird nun auf das Bildseitenverhältnis 4:3 eines Standard- Videomonitors einwandfrei abgebildet. Dieser ganze Prozeß dauert 8,2 msec.
  • (4) Wenn die Auslesung nach dem Einzelbildspeicher beendet ist, kehrt der CCD zu dem kontinuierlichen Schiebemodus zurück, um Dunkelstrom-Bildung zu eliminieren, bis das nächste Verstärker- Triggersignal empfangen wird.
  • Ein D/A-Konverter gibt die Einzelbild-Speicherinformation als ein Video- Halbbild aus. Dieses Halbbild wird mit 60 Hz wiederholt, bis der Einzelbildspeicher aktualisiert wird. Die alternierenden Halbbilder bei dem Video werden, obwohl sie identisch sind, in der herkömmlichen Weise nach dem Zeilensprungverfahren überlagert. Jedesmal, wenn das Signal empfangen wird, um bei dem Sensor eine Integration und Auslesung zu beginnen, wird bei dem Video ein einzelnes leeres Halbbild erzeugt. Dabei liegt die Gesamtzeit für die Integration und die Auslesung (3,2 + 8,2 msec) innerhalb eines Halbbild- Intervalls (16,67 msec). Es sollte angemerkt werden, daß das Video-Halbbild aus 190 Zeilen besteht. Nach den 190 Zeilen schaltet der Einzelbild-Wandler auf einen Standard-Fernsehwiedergabemodus um und gibt die restlichen Zeilen als Schwarz wieder.
  • Die zwei Kameras müssen in einem synchronen Modus betrieben werden, um die Verwendung eines analogen Subtraktors für die zwei Bilder zu ermöglichen. Ein Synchronisationskabel, das die zwei Kameras miteinander verbindet, ermöglicht den Kamerasynchronisations-Ausgangssignalen einer Kamera, alle Tastsignale für die zweite Kamera zu steuern. Jede Kamera kann bei der Zeitsteuerung als Mutterkamera fungieren, wobei die andere Kamera als Tochterkamera dient. Wenn das Kabel angeschlossen ist, schaltet eine Multiplexerschaltung in der Tochterkamera das Taktsignal von dem internen Controller-Chip nach der externen Signalquelle um. Auf diese Weise werden die zwei Kameras Pixel um Pixel synchronisiert.
  • Einige der Kamera-Steuermerkmale wurden bereits erwähnt. Diese umfassen die externe Trigger-Gatesteuerung über einen Eingang an dem Kameragehäuse und den Gatebreiten-Steuerschalter (10, 20 oder 40 nsec). Das Kameragehäuse weist außerdem drei Ausgänge auf. Der Verstärkungsmonitor gibt eine geteilte Reproduktion des Hochspannungs- Gatesteuerimpulses wieder, der auf die Verstärkerröhre gegeben wird. Das Einzelbild-Synchronisations-Ausgangssignal ist ein 1,98 msec breiter, negativer TTL-Impuls, der den Start eines ungeraden Halbbildes bei dem Video anzeigt, und daher eine Frequenz von 30 Hz hat. Das Halbbild-Synchronisations- Ausgangssignal ist ein 1,33 msec breiter, negativer TTL-Impuls, der die Rücklauf-Austastung (oder den vertikalen Rücklauf) anzeigt, die zwischen den einzelnen Halbbildern des Video mit 60 Hz erfolgt. Eine in einem Rack montierbare Stromversorgung liefert die Niederspannung für die Kameraelektronik, sowie die Hochspannungen, die für die zwei Stufen der Verstärkerröhre benötigt werden. Auf der Frontplatte der Stromversorgung ist ein Potentiometer für die manuelle Einstellung der Hochspannung vorgesehen. Mit diesem Potentiometer wird die Verstärkung der Röhre variiert und überwacht. Bei einer bevorzugten Ausführungsform wird eine automatische Verstärkungssteuerschaltung verwendet, um die Verstärkung bei der Halbbild- Frequenz automatisch zu korrigieren.
  • Nachstehend wird auf die FIGUR 5 Bezug genommen, in der das Zeitsteuer-Schaltbild für das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung wiedergegeben ist. Die hauptsächlichen Elemente bei dem Zeitsteuer-Schaltbild sind die "Mutter"-Kamera 18 und ein digitaler Verzögerungsgenerator 24 von Standard Research, Modell DG535. Aus dem 30 Hz-Einzelbild-Synchronisationssignal von der Mutterkamera wird durch Teilung ein 15 Hz-Signal erzeugt, das zum Triggern des Lasers verwendet wird (siehe FIGUR 1). Dabei möchten wir daran erinnern, daß das Einzelbild- Synchronisationssignal am Anfang des Intervalls des ungeraden Teilbildes bei dem Video der Kamera auftritt. Ungefähr 250 msec nach dem Triggersignal wird ein Laser-Ausgangsimpuls erzeugt. Das Laser-Scintillations-Rücksignal von der Wasseroberfläche wird von einem Antel Optronics ARX - SA Hochgeschwindigkeits-Lawinen-Photodetektor 35 (siehe FIGUR 1) erfaßt. Angesichts der erwarteten Höhe der Plattform bei einem betriebsbereiten System wird die Scintillationserfassung im allgemeinen in der Größenordnung von 1 msec nach der Aussendung des Laserimpulses erfolgen. Das Photodetektorsignal wird durch einen Modern Instrument Technology F-100T- Impulsvorverstärker und Rauschdiskriminator 37 aufbereitet. Die Schwelle des FT-100T wird über dem Rauschpegel und in dem linearen Gebiet der Signalquelle eingestellt. Wenn die Signalquelle den Schwellenpegel erreicht, wird ein 100ns breiter TTL-Impuls ausgegeben. Dieser TTL-Impuls triggert die Stanford-Verzögerungseinheit 24, die den Impuls um ungefähr 3 ms verzögert, bevor eine zweite Stanford-Verzögerungseinheit 22 getriggert wird. Diese zweite Stanford-Verzögerungseinheit ist die primäre Zeitsteuerung für das System und wird zum Triggern der Verstärker-Gatesteuerung bei jeder der zwei CCD-Kameras 18 und 20 verwendet. Sie wird eingestellt für eine A- und B- Verzögerung von (66 2/3 ms - Systemverzögerungen + gewünschte Wassertiefen-Verzögerung). Folglich werden die Kameras bei dem zuvor erfaßten Scintillationsimpuls tatsächlich getriggert. Die 3 ms Verzögerung der ersten Stanford-Verzögerungseinheit werden benötigt, um die Sperrzeit- Periode der zweiten Stanford-Verzögerungseinheit zu vermindern, die mit einer konstanten Frequenz von 15 Hz getriggert wird. Die Systemverzögerungen liegen in der Größenordnung von 130ns (das heißt, 40ns Laufzeitverzögerung des Kameragates, 85ns Laufzeitverzögerung der Stanford- Verzögerungseinheit, und weniger als 5ns für andere Verzögerungen, wie Kabellängen, usw.). Diese Verzögerungen können genau gemessen werden und sollten Scintillationsspezifikationen von weniger als 1ns haben. Die Stanford-Verzögerungseinheit kann mit ihrem internen Zeitbasis-Oszillator einen Impuls um viele Millisekunden sehr genau verzögern. Die RMS- Scintillationsspezifikation ist definiert als: (50ps + Verzögerung X 10E-8). Beispielsweise haben Verzögerungen in der Größenordnung von 70ms eine RMS-Scintillationsspezifikation von 0,7ns. Wenn das System einmal geeicht ist, ist die Verzögerung unabhängig von der Entfernung von der Wasseroberfläche (das heißt, das System steuert eine sich ändernde Plattformhöhe automatisch nach). Dies erfordert jedoch, daß das Ereignis bei einer Grundfrequenz von 15 Hz innerhalb von 2ns genau ausgelöst wird. Dies ist nur möglich, wenn das Einzelbild-Synchronisationssignal der CCD-Kamera innerhalb von 1ns stabil ist, und die Laserscintillation an dem TTL-Eingang innerhalb von 1ns stabil ist.
  • Wenn die Einzelheiten der oben beschriebenen Kamerabetätigung betrachtet werden, ist nun die Zeitsteuerung des gesamten Systems festgelegt: Die Videosignale der zwei Kameras sind voll synchronisiert. Am Anfang jedes zweiten ungeraden Video-Halbbildes wird ein Ereignis ausgelöst (das heißt, der Laser wird mit 15 Hz gepulst). Das Laser-Rücksignal wird erfaßt, und die Impuls-Laufzeit wird bei dem nächsten Ereignis (Laserimpuls) berücksichtigt, um die Gate-Aufsteuerung der Kameras für eine vorgegebene Wassertiefe zu der gewünschten Zeit vorzunehmen. Diese Gatesteuerung erfolgt immer während der ersten mehreren hundert Mikrosekunden der Intervalle der alternierenden ungeraden Video-Halbbilder. Danach erfolgen die Sensorintegration und die Auslesung während 3,2 msec bzw. 8,2 msec. Während dieses Halbbild-Intervalls, in dem die Verstärker-Gatesteuerung, die Sensorintegration und die Sensorauslesung erfolgen, wird ein ganzes leeres Video-Halbbild aus dem Einzelbildspeicher der Kamera ausgelesen. Die darauf folgenden Video-Halbbilder sind identische Darstellungen des eingefangenen Ereignisses, wie diese aus dem Einzelbildspeicher der Kamera ausgelesen werden. Während dieser Zeit wartet die Kamera auf ein Triggersignal, um ein neues Ereignis auszulösen, wobei sie den Dunkelstrom von dem CCD kontinuierlich löscht. Das nächste Triggersignal tritt immer nahe bei dem Anfang des Intervalls des vierten aufeinanderfolgenden Video-Halbbildes auf und der Zyklus wiederholt sich.
  • Videoprozessor:
  • In der FIGUR 6 ist ein schematisches Schaltbild des Video- Verarbeitungssystems wiedergegeben. Die RS170-Signale von den beiden verstärkten CCD-Kameras werden zuerst über monochrome Videomonitore (Kohu Modell 9029B/2R) geleitet, und dann auf zwei Eingänge des Videoumschalters gegeben. Die Ausgangssignale A und B des Videoumschalters Nummer 1 werden auf die zwei Eingänge des Video- Subtraktors & Schwellendetektors (Optical Electronics, Modell 67135-R) gegeben. Das Ausgangssignal dieses Video-Subtraktors ist ein monochromes RS170-Videosignal, das über den Eingang Nummer 3 des Videoumschalters Nummer 1 rückgekoppelt wird.
  • Das Ausgangssignal C des Videoumschalters Nummer 1 wird auf einen Video-Analysator (Colorado Video, Modell 320) gegeben. Dieser Video- Analysator kann den Video-Intensitätspegel in einem Streifen über das Bild abtasten und diesen Querschnitt der Videointensität bei Überlagerung auf der linken Seite des Videos wiedergeben. Das Ausgangssignal dieses Video- Analysators wird auf den Eingang 4 des Videoumschalters Nummer 1 rückgekoppelt.
  • Der Eingang Nummer 1 des Videoumschalters Nummer 2 erhält das Signal von dem Ausgang D des Videoumschalters Nummer 1, so daß jedes der vier Eingangssignale von dem Videoumschalter 1 nach dem Videoumschalter 2 weitergeleitet werden kann. Das heißt, das Kameravideo Nummer 1, das Kameravideo Nummer 2, das Video-Subtraktor-Ausgangssignal, oder das Video-Analysator-Ausgangssignal können nach dem Videoumschalter Nummer 2 weitergeleitet werden.
  • Außerdem kann das Ausgangssignal des Video-Subtraktors nach dem Video-Analysator weitergeleitet werden. Der Video-Subtraktor ermöglicht, zunächst das Video-Eingangssignal B durch einen variablen Verstärkungsfaktor anzupassen, der von einem Viertel bis zu vier reicht. Danach subtrahiert er dieses angepaßte Videosignal B von dem Videosignal A, addiert ein Offset- Signal zu der Differenz, und multipliziert das Ergebnis mit einem Verstärkungsfaktor, der von eins bis zehn reicht. Das sich ergebende Ausgangssignal ist im wesentlichen die Differenz zwischen dem Video A und dem Video B, bei einigen Anpassungen zur Korrektur unterschiedlicher Kameraverstärkungen.
  • Das Ausgangssignal A des Videoumschalters Nummer 2 wird nach einem Farbmonitor (Sony Modell PVM-1220) weitergeleitet. Das Ausgangssignal B des Videoumschalters Nummer 2 wird auf einen Video-Kolorisator (Colorado Video Modell 606G) gegeben. Das Ausgangssignal des Video-Kolorisators besteht aus vier Signalen, und zwar rot, grün, blau und Sync. Diese vier Signale werden auf einen RGB/NTSC-Wandler (Optical Electronics Modell 67132-R) gegeben. Dieses NTSC-Farb-Video-Ausgangssignal wird auf den Eingang 2 des Videoumschalters 2 rückgekoppelt.
  • Das Ausgangssignal C des Videoumschalters Nummer 2 wird auf den Video-Cassettenrecoder (Sony Modell VO-5600) gegeben, und das Ausgangssignal des Video-Cassettenrecorders wird auf den Eingang Nummer 3 des Videoumschalters Nummer 2 rückgekoppelt. Das Ausgangssignal D des Videoumschalters 2 wird auf einen Videodrucker (Mitsubishi Modell P-70U) gegeben. Diese Ausrüstungen ermöglichen, eine Falschfarben-Darstellung der Kamera 1, der Kamera 2, oder der Differenz zwischen der Kamera 1 und der Kamera 2 zu erzeugen, und dieses kolorisierte Signal auf einem Videomonitor wiederzugeben und auf einem Video-Cassettenrecorder aufzuzeichnen. Der Video-Cassettenrecorder kann sowohl Monochrom-, als auch Farbsignale aufzeichnen. Der Videodrucker kann nicht in Farbe, sondern nur monochrom drucken.
  • Die Verwendung von zwei Matrix-Video-Umschaltern ermöglicht, den Videoprozessor für Diagnosezwecke leicht zu rekonfigurieren, wozu beispielsweise nur eine Kamera betrachtet wird; oder, in dem Betriebsmodus, in dem das Signal die Differenz der Videos ist, die Differenz kolorisiert, wiedergegeben und aufgezeichnet wird.
  • Schließlich enthält der Video-Subtraktor einen Schwellendetektor, der einen TTL-Sonalert-Alarm triggert und ein elektronisches Signal für externe Verwendung liefert, wenn ein Ziel eine bestimmte Intensitätsschwelle übersteigt. In der Praxis wird das Video-Differenzsignal, das das Ausgangssignal des Video-Subtraktors ist, kolorisiert und auf dem Video- Farbmonitor wiedergegeben, und der Schwellendetektor wird so eingestellt, daß Rauschen oder andere Fehler des Signals keine Triggerung hervorrufen. Der Schwellendetektor wird nur durch das wirkliche Ziel getriggert.
  • Kameralinsen-Optik:
  • Das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung kann wahlweise bestimmte kleine optische Filter, einschließlich Bandpaßfilter und Polarisationsfilter aufweisen. Bei dem System können zwei Kunden- Bandpaßfilter-Paare 32 verwendet werden. Das erste Paar wird in fotografischen 52 mm-Standard-Filterhaltern für 25 mm f/.85 Fujinon TV-Linsen angebracht. Das Sichtfeld dieser Linsen beträgt 200 für das halbe Feld. Die mittlere Wellenlänge und die Bandbreite dieser Filter betragen daher 537 nm bzw. 11,8 nm, um die Durchlässigkeit bei 532 nm über das volle Feld so gleichmäßig wie möglich zu machen, während die Bandbreite auf ein Minimum reduziert wird. Das zweite Bandpaßfilter-Paar 32 ist in speziellen Filterhaltern angebracht, die mit den f/1,0 Kowa-Linsen von 75 mm Brennweite verbunden sind. Die Filter haben einen Durchmesser von 3,5" und eine Dicke von 0,335". Die mittlere Wellenlänge und die Bandbreite dieser Filter sind 532,6 nm bzw. 1,4 nm, um die Durchlässigkeit bei 532 nm über das halbe Feld der Kowa- Linsen von 7º so gleichmäßig wie möglich zu machen.
  • Es können auch zwei Polansationsfilter-Paare 34 verwendet werden. Das erste Paar sind fotografische 52 mm-Standard-Polarisationsfilter, die auf die 52 mm-Gewinde der Bandpaßfilter-Halterungen für die Fujinon-Linsen aufgeschraubt werden. Das zweite Polarisationsfilter-Paar 34 wird in 95 mm- Tippen-Standard-Polarisationsfilter-Halterungen angebracht. Diese Halterungen werden in die Bandpaßfilter-Halterungen der Kowa-Linsen eingeschraubt.
  • Der Laser 10 wird vorzugsweise in Verbindung mit einer Abtastspiegeleinheit verwendet, um das Licht von einer horizontalen in eine vertikale Richtung umzulenken.
  • Das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung wurde in Ozeanwasser mit Erfolg getestet, und es wurde festgestellt, daß es zuverlässige Bilder von Unterwasserobjekten von einer fernen Position über dem Wasser aus liefert.
  • Die vorliegende Erfindung wurde zwar unter Bezugnahme auf zwei CCD- Kameras beschrieben, aber bei einer weniger bevorzugten Ausführungsform kann nur eine einzige Kamera verwendet werden. Da jedoch bei einer einzigen Kamera das Hintergrundrauschen nicht durch Subtraktion eliminiert werden kann, ist das SRV bei dieser weniger bevorzugten Ausführungsform kleiner.
  • Obwohl bevorzugte Ausführungsformen wiedergegeben und beschrieben wurden, können bei diesen Ausführungsformen verschiedene Änderungen und Ersetzungen vorgenommen werden. Daher gilt als vereinbart, daß die vorliegende Erfindung zur Veranschaulichung und nicht zur Begrenzung beschrieben wurde.

Claims (30)

1. Verfahren zum Nachweis und zur bildlichen Darstellung eines Objekts welches von einem zurückstreuenden Medium umhüllt ist das zumindest teilweise für Licht durchlässig ist, wobei dieses Verfahren die folgenden Schritte umfaßt:
selektives Erzeugen von kurzen Lichtimpulsen,
Aussenden der kurzen Lichtimpulse zu dem zurückstreuenden Medium hin und auf ein von dem Medium umhülltes Objekt,
Erfassen der von dem Objekt zurückreflektierten Lichtimpulse nach einer zeitlichen Verzögerung, die der Laufzeit der Lichtimpulse bis zu dem Objekt und wieder zurück entspricht, und
Umwandeln der erfaßten Lichtimpulse in ein Videobild des Objekts,
dadurch gekennzeichnet, daß der Schritt, bei dem die Lichtimpulse erfaßt werden, weiterhin die folgenden Schritte aufweist:
Erfassen eines ersten Bildes des Objekts gegenüber dem von dem zurückstreuenden Medium zurückgestreuten Licht,
Erfassen eines zweiten Bildes des Schattens des Objekts gegenüber dem von dem zurückstreuenden Medium zurückgestreuten Licht, und
Subtrahieren des ersten Bildes von dem zweiten Bild, um die Nachweisbarkeit und die bildliche Darstellung des Objekts zu verbessern.
2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, daß die kurzen Impulse Impulsbreiten von weniger als ungefähr 10 Nanosekunden aufweisen.
3. Verfahren gemäß Anspruch 1 oder 2, dadurch gekennzeichnet, daß die erzeugten Lichtimpulse expandiert werden, wozu sie durch eine optische Vorrichtung geschickt werden.
4. Verfahren gemäß irgendeinem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß das erste Bild von einer ersten Kamera aufgenommen wird, und das zweite Bild von einer zweiten Kamera aufgenommen wird.
5. Verfahren gemäß irgendeinem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß das subtrahierte Bild farblich dargestellt wird, um die Identifizierung des Objekts zu erleichtern.
6. Verfahren gemäß irgendeinem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß das Videobild auf einer Kathodenstrahlröhre wiedergegeben wird.
7. Verfahren gemäß irgendeinem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß die kurzen Lichtimpulse von einem gepulsten Laser erzeugt werden.
8. Verfahren gemäß irgendeinem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß der gepulste Laser einen gepulsten Nd:YAG-Laser aufweist.
9. Verfahren gemäß irgendeinem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß die erzeugten Lichtimpulse gefiltert werden.
10. Verfahren gemäß Anspruch 9, dadurch gekennzeichnet, daß Bandpaßfilter verwendet werden, um die Lichtimpulse zu filtern.
11. Verfahren gemäß irgendeinem der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß das zurückstreuende Medium Wasser ist, wobei die Lichtimpulse zu der Oberfläche des Wassers hin ausgesandt werden.
12. Verfahren gemäß Anspruch 11, dadurch gekennzeichnet, daß die Lichtimpulse von einer Plattform eines Luftfahrzeugs ausgesandt werden.
13. Verfahren gemäß Anspruch 11 oder 12, dadurch gekennzeichnet, daß ein von der Wasseroberfläche zurückgeworfener, glitzernder Lichtimpuls erfaßt wird, wobei dieser zurückgeworfene, Scintillations-Lichtimpuls einem zu der Oberfläche des Wassers hin ausgesandten Lichtimpuls entspricht, und daß dieser von der Wasseroberfläche zurückgeworfene, Scintillations-Lichtimpuls verwendet wird, um den Zeitpunkt für den Nachweis des unter der Wasseroberfläche reflektierten Lichts einzustellen.
14. Verfahren gemäß irgendeinem der Ansprüche 1 bis 13, dadurch gekennzeichnet, daß ein zurückgeworfener, glitzernder Lichtimpuls, der einem ersten Lichtimpuls entspricht, durch eine Nachweisvorrichtung für Scintillations- Lichtimpulse erfaßt wird, und daß das erste und das zweite Bild bei dem nächsten Lichtimpuls durch eine Kameravorrichtung erfaßt werden.
15. Verfahren gemäß irgendeinem der Ansprüche 1 bis 13, dadurch gekennzeichnet, daß die Lichtimpulse durch mindestens eine Kamera erfaßt werden, die einen verstärkten CCD (Charge Coupled Device)-Sensor umfaßt.
16. Vorrichtung zum Nachweis und zur bildlichen Darstellung Objekts, das von einem zurückstreuenden Medium umhüllt ist, das zumindest teilweise für Licht durchlässig ist, aufweisend
eine Vorrichtung (10), um in selektiver Weise kurze Lichtimpulse zu erzeugen,
eine Vorrichtung (12), um kurze Lichtimpulse zu dem zurückstreuenden Medium (16) hin und auf ein von dem Medium (16) umhülltes Objekt (26) auszusenden,
eine Vorrichtung (18, 20), um die von dem Objekt (26) zurückreflektierten Lichtimpulse nach einer zeitlichen Verzögerung nachzuweisen, die der Laufzeit der Lichtimpulse bis zu dem Objekt (26) und wieder zurück entspricht, und
eine Vorrichtung (28, 30), um die erfaßten Lichtimpulse in ein Videobild des Objekts (26) umzuwandeln,
dadurch gekennzeichnet, daß die Vorrichtung zum Erfassen der Lichtimpulse aufweist:
eine erste Bilderfassungsvorrichtung (18), um ein Bild des Objekts (26) (erstes Bild) gegenüber dem von dem zurückstreuenden Medium (16) zurückgestreuten Licht zu erfassen;
eine zweite Bilderfassungsvorrichtung (20), um ein Bild des Schattens des Objekts (26) (zweites Bild) gegenüber dem von dem zurückstreuenden Medium (16) zurückgestreuten Licht zu erfassen; und
eine Vorrichtung (28) zum Subtrahieren des ersten Bildes von dem zweiten Bild, um die Nachweisbarkeit und die bildliche Darstellung des Objekts (26) zu verbessern.
17. Vorrichtung gemäß Anspruch 16, dadurch gekennzeichnet, daß die kurzen Impulse Impulsbreiten von weniger als ungefähr 10 Nanosekunden aufweisen.
18. Vorrichtung gemäß Anspruch 16 oder 17, gekennzeichnet durch eine Vorrichtung, um die erzeugten Lichtimpulse zu verbreitern, wozu diese Lichtimpulse durch eine optische Vorrichtung (12) geschickt werden.
19. Vorrichtung gemäß Anspruch 16, 17 oder 18, dadurch gekennzeichnet, daß die erste Bilderfassungsvorrichtung eine erste Kamera (18) aufweist, und die zweite Bilderfassungsvorrichtung eine zweite Kamera (20) aufweist.
20. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 19, gekennzeichnet durch eine Vorrichtung (28) zur farblichen Darstellung des subtrahierten Bildes, um die Identifizierung des Objekts (26) zu erleichtern.
21. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 20 gekennzeichnet durch eine Kathodenstrahlröhre (30), um das Videobild optisch wiederzugeben.
22. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 21, dadurch gekennzeichnet, daß die Vorrichtung zum selektiven Erzeugen von kurzen Lichtimpulsen einen gepulsten Laser (10) aufweist.
23. Vorrichtung gemäß Anspruch 22, wobei der gepulste Laser (10) einen gepulsten Nd:YAG-Laser aufweist.
24. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 23, dadurch gekennzeichnet, daß das zurückstreuende Medium (16) Wasser ist, wobei die Lichtimpulse zu einer Oberfläche (14) des Wassers hin ausgesandt werden.
25. Vorrichtung gemäß irgendeinem der Ansprüche 1 bis 24, gekennzeichnet durch einen Detektor für Scintillations-Lichtimpulse.
26. Vorrichtung gemäß Anspruch 25, dadurch gekennzeichnet, daß der Detektor für Scintillations-Lichtimpulse einen Photodetektor und eine mit dem Photodetektor betriebsfähig verbundene Diskriminatorschaltung aufweist.
27. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 25, gekennzeichnet durch Filter (32, 34), um die erzeugten Lichtimpulse zu filtern.
28. Vorrichtung gemäß Anspruch 26, dadurch gekennzeichnet, daß die Filter ein Bandpaßfilter (32) aufweisen.
29. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 28, dadurch gekennzeichnet, daß die Bilderfassungsvorrichtung mindestens eine Kamera (18, 20) aufweist, die einen verstärkten CCD (Charge Coupled Device)-Sensor umfaßt.
30. Vorrichtung gemäß Anspruch 29, dadurch gekennzeichnet, daß die Kamera weiterhin umfaßt:
ein Faseroptik-Fenster (48), und
eine Bildverstärker-Vorrichtung (50), wobei das Faseroptik-Fenster (48) den CCD-Sensor (46) mit der Bildverstärker-Vorrichtung (50) koppelt, um den verstärkten CCD-Sensor zu bilden.
DE68920422T 1988-07-07 1989-07-06 Bildformungs-lidarsystem. Expired - Fee Related DE68920422T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/216,341 US4862257A (en) 1988-07-07 1988-07-07 Imaging lidar system
PCT/US1989/002935 WO1990000848A1 (en) 1988-07-07 1989-07-06 Imaging lidar system

Publications (2)

Publication Number Publication Date
DE68920422D1 DE68920422D1 (de) 1995-02-16
DE68920422T2 true DE68920422T2 (de) 1995-05-11

Family

ID=22806665

Family Applications (1)

Application Number Title Priority Date Filing Date
DE68920422T Expired - Fee Related DE68920422T2 (de) 1988-07-07 1989-07-06 Bildformungs-lidarsystem.

Country Status (10)

Country Link
US (1) US4862257A (de)
EP (1) EP0378669B1 (de)
JP (1) JP2938912B2 (de)
AT (1) ATE116786T1 (de)
AU (1) AU3967189A (de)
CA (1) CA1334998C (de)
DE (1) DE68920422T2 (de)
IL (1) IL90906A (de)
NZ (1) NZ229855A (de)
WO (1) WO1990000848A1 (de)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8811355D0 (en) * 1988-05-13 1997-09-17 Secr Defence An electro-optical detection system
US5013917A (en) * 1988-07-07 1991-05-07 Kaman Aerospace Corporation Imaging lidar system using non-visible light
IL89019A0 (en) * 1989-01-20 1989-12-15 Israel Aircraft Ind Ltd Improved image intensifying system
US5321030A (en) * 1989-02-14 1994-06-14 Amira, Inc. Creatine analogs having antiviral activity
US4988196A (en) * 1989-04-17 1991-01-29 Sperry Marine Inc. Time domain Fraunhofer line discriminator
US5045937A (en) * 1989-08-25 1991-09-03 Space Island Products & Services, Inc. Geographical surveying using multiple cameras to obtain split-screen images with overlaid geographical coordinates
US5200792A (en) * 1989-08-31 1993-04-06 Nec Corporation Device for obtaining distance information from an object by instantaneously illuminating the object by a light beam
US4964721A (en) * 1989-10-12 1990-10-23 Kaman Aerospace Corporation Imaging lidar system
US5034810A (en) * 1989-12-07 1991-07-23 Kaman Aerospace Corporation Two wavelength in-situ imaging of solitary internal waves
US5223986A (en) * 1990-08-09 1993-06-29 Kaman Aerospace Corporation Radiation projecting device
US5267329A (en) * 1990-08-10 1993-11-30 Kaman Aerospace Corporation Process for automatically detecting and locating a target from a plurality of two dimensional images
US5276632A (en) * 1990-08-10 1994-01-04 Kaman Aerospace Corporation Method and apparatus for improved visual display of a target viewed by an imaging sensor device
US5140416A (en) * 1990-09-18 1992-08-18 Texas Instruments Incorporated System and method for fusing video imagery from multiple sources in real time
US5343284A (en) * 1990-10-24 1994-08-30 Kaman Aerospace Corporation Imaging lidar system employing bistatic operation
US5181135A (en) * 1990-12-21 1993-01-19 Kaman Aerospace Corporation Optical underwater communications systems employing tunable and fixed frequency laser transmitters
US5164823A (en) * 1990-12-21 1992-11-17 Kaman Aerospace Corporation Imaging lidar system employing multipulse single and multiple gating for single and stacked frames
WO1992011541A1 (en) * 1990-12-21 1992-07-09 Huntron Instruments, Inc. Image acquisition system for use with a printed circuit board test apparatus
US5233415A (en) * 1991-04-19 1993-08-03 Kaman Aerospace Corporation Imaging lidar employing transmitter referencing
US5257085A (en) * 1991-04-24 1993-10-26 Kaman Aerospace Corporation Spectrally dispersive imaging lidar system
US5303084A (en) * 1991-08-27 1994-04-12 Kaman Aerospace Corporation Laser light beam homogenizer and imaging lidar system incorporating same
US5270780A (en) * 1991-09-13 1993-12-14 Science Applications International Corporation Dual detector lidar system and method
US5281826A (en) * 1991-12-23 1994-01-25 Electric Power Research Institute, Inc. Video fluorescence monitor for determination of spill outlines
US5446529A (en) * 1992-03-23 1995-08-29 Advanced Scientific Concepts, Inc. 3D imaging underwater laser radar
US5353054A (en) * 1992-07-15 1994-10-04 Geiger Michael B Hands free lidar imaging system for divers
US5506616A (en) * 1992-10-07 1996-04-09 The United States Of America As Represented By The Secretary Of The Navy Differential imaging for sensitive pattern recognition
US5379967A (en) * 1993-04-30 1995-01-10 State Of Israel Ministry Of Defense Armament Development Authority Rafael Day/night optical guiding apparatus
US5448936A (en) * 1994-08-23 1995-09-12 Hughes Aircraft Company Destruction of underwater objects
US5644386A (en) * 1995-01-11 1997-07-01 Loral Vought Systems Corp. Visual recognition system for LADAR sensors
US5790188A (en) * 1995-09-07 1998-08-04 Flight Landata, Inc. Computer controlled, 3-CCD camera, airborne, variable interference filter imaging spectrometer system
RU2089932C1 (ru) * 1996-06-04 1997-09-10 Йелстаун Корпорейшн Н.В. Устройство для наблюдения объектов
US6304289B1 (en) * 1996-10-28 2001-10-16 Director General Of The 1St District Port Construction Bureau, Ministry Of Transport Submerged laser television and submerged laser visual recognizer
US6963354B1 (en) 1997-08-07 2005-11-08 The United States Of America As Represented By The Secretary Of The Navy High resolution imaging lidar for detecting submerged objects
US6028624A (en) * 1997-12-11 2000-02-22 The United States Of America As Represented By The Secretary Of The Army Method and apparatus for increased visibility through fog and other aerosols
US6836285B1 (en) 1999-09-03 2004-12-28 Arete Associates Lidar with streak-tube imaging,including hazard detection in marine applications; related optics
FR2799002B1 (fr) * 1999-09-28 2006-07-21 Thomson Csf Procede d'imagerie laser active
US6414746B1 (en) * 1999-11-24 2002-07-02 Advanced Scientific Concepts, Inc. 3-D imaging multiple target laser radar
US7045783B2 (en) * 2001-06-05 2006-05-16 University Of Florida Research Foundation, Inc. Device and method for object illumination and imaging using light pulses
DE10210831A1 (de) * 2002-03-12 2003-11-06 Zeiss Carl Optisches Bildaufnahme- und Bildauswertesystem
ES2212733B1 (es) * 2002-10-18 2005-05-01 Jose Muñoz Leo Sistema de visualizacion de imagenes del fondo marino.
FR2858450B1 (fr) * 2003-07-28 2005-11-11 Vision Iq Procede et systeme pour detecter un corps dans une zone situee a proximite d'une interface
US7148974B1 (en) * 2004-01-13 2006-12-12 Sandia Corporation Method for tracking the location of mobile agents using stand-off detection technique
US7391561B2 (en) 2005-07-29 2008-06-24 Aculight Corporation Fiber- or rod-based optical source featuring a large-core, rare-earth-doped photonic-crystal device for generation of high-power pulsed radiation and method
US7430352B2 (en) 2005-07-29 2008-09-30 Aculight Corporation Multi-segment photonic-crystal-rod waveguides for amplification of high-power pulsed optical radiation and associated method
US7768700B1 (en) 2006-11-30 2010-08-03 Lockheed Martin Corporation Method and apparatus for optical gain fiber having segments of differing core sizes
USRE46672E1 (en) 2006-07-13 2018-01-16 Velodyne Lidar, Inc. High definition LiDAR system
EP2041515A4 (de) * 2006-07-13 2009-11-11 Velodyne Acoustics Inc Hochauflösendes lidar-system
US7916933B2 (en) * 2007-01-18 2011-03-29 Northrop Grumman Systems Corporation Automatic target recognition system for detection and classification of objects in water
US8179594B1 (en) 2007-06-29 2012-05-15 Lockheed Martin Corporation Method and apparatus for spectral-beam combining of fanned-in laser beams with chromatic-dispersion compensation using a plurality of diffractive gratings
JP2009276248A (ja) * 2008-05-15 2009-11-26 Mitsubishi Electric Corp レーザレーダ装置
US8526110B1 (en) 2009-02-17 2013-09-03 Lockheed Martin Corporation Spectral-beam combining for high-power fiber-ring-laser systems
US8675181B2 (en) * 2009-06-02 2014-03-18 Velodyne Acoustics, Inc. Color LiDAR scanner
US8441718B2 (en) * 2009-11-23 2013-05-14 Lockheed Martin Corporation Spectrally beam combined laser system and method at eye-safer wavelengths
US8503840B2 (en) 2010-08-23 2013-08-06 Lockheed Martin Corporation Optical-fiber array method and apparatus
DE112011101288T5 (de) 2010-04-12 2013-02-07 Lockheed Martin Corporation Strahldiagnostik- und Rückkopplungssystem sowie Verfahren für spektralstrahlkombinierteLaser
EP3901653A3 (de) * 2010-05-17 2022-03-02 Velodyne Lidar USA, Inc. Hochauflösendes lidar-system
CN102103202B (zh) * 2010-12-01 2013-01-09 武汉大学 一种融合影像的机载激光雷达数据半监督分类方法
CN102162861A (zh) * 2010-12-07 2011-08-24 桂林电子科技大学 基于太赫兹成像探测水下目标的方法及装置
CN104470757B (zh) 2012-07-09 2017-05-17 布莱特瓦维森有限公司 立体选通成像系统和方法
ITUD20120187A1 (it) * 2012-11-07 2014-05-08 Eidon Lab S C A R L Apparecchiatura e procedimento di rilevazione per rilevare ostacoli alla navigazione per via d'acqua
US9366872B2 (en) 2014-02-18 2016-06-14 Lockheed Martin Corporation Apparatus and method for fiber-laser output-beam shaping for spectral beam combination
GB201407267D0 (en) * 2014-04-24 2014-06-11 Cathx Res Ltd Underwater surveys
US9641781B2 (en) 2015-03-30 2017-05-02 Hamilton Sundstrand Corporation Imaging circuit including frame asynchronous pulse detection
US10627490B2 (en) 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
WO2017164989A1 (en) 2016-03-19 2017-09-28 Velodyne Lidar, Inc. Integrated illumination and detection for lidar based 3-d imaging
US10393877B2 (en) 2016-06-01 2019-08-27 Velodyne Lidar, Inc. Multiple pixel scanning LIDAR
US9702819B1 (en) * 2016-06-22 2017-07-11 The United States Of America As Represented By The Secretary Of The Navy Surface vessel wake detection
US10386465B2 (en) 2017-03-31 2019-08-20 Velodyne Lidar, Inc. Integrated LIDAR illumination power control
CN115575928A (zh) 2017-05-08 2023-01-06 威力登激光雷达美国有限公司 Lidar数据获取与控制
US11294041B2 (en) 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
US11971507B2 (en) 2018-08-24 2024-04-30 Velodyne Lidar Usa, Inc. Systems and methods for mitigating optical crosstalk in a light ranging and detection system
US10712434B2 (en) 2018-09-18 2020-07-14 Velodyne Lidar, Inc. Multi-channel LIDAR illumination driver
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
CN109782294B (zh) * 2018-12-26 2021-09-17 中国科学院长春光学精密机械与物理研究所 一种智能化光学观测系统
US12061263B2 (en) 2019-01-07 2024-08-13 Velodyne Lidar Usa, Inc. Systems and methods for a configurable sensor system
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
CN109709574B (zh) * 2019-01-09 2021-10-26 国家海洋局第一海洋研究所 一种海底微地形激光扫描成像系统及三维地形重建方法
US10613203B1 (en) 2019-07-01 2020-04-07 Velodyne Lidar, Inc. Interference mitigation for light detection and ranging
US11556000B1 (en) 2019-08-22 2023-01-17 Red Creamery Llc Distally-actuated scanning mirror
US11789128B2 (en) * 2021-03-01 2023-10-17 Innovusion, Inc. Fiber-based transmitter and receiver channels of light detection and ranging systems
US11614521B2 (en) 2021-04-21 2023-03-28 Innovusion, Inc. LiDAR scanner with pivot prism and mirror
GB2609044B (en) * 2021-07-20 2024-09-25 Thales Holdings Uk Plc Detecting an object in a turbid medium
EP4198571A1 (de) * 2021-12-17 2023-06-21 BAE SYSTEMS plc Unterwasserabbildung
WO2023111519A1 (en) * 2021-12-17 2023-06-22 Bae Systems Plc Underwater imaging

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2541374A (en) * 1946-06-28 1951-02-13 Rca Corp Velocity-selection-type pickup tube
US3426207A (en) * 1964-06-17 1969-02-04 North American Rockwell Focused optical heterodyne system
US3467773A (en) * 1966-11-07 1969-09-16 Us Navy Television monitoring system for penetrating a light backscattering medium
US3566021A (en) * 1968-11-29 1971-02-23 Bell Telephone Labor Inc Real time three dimensional television system
GB1249722A (en) * 1969-01-14 1971-10-13 Hughes Aircraft Co Line scanning system
US3670098A (en) * 1970-03-09 1972-06-13 Zenith Radio Corp Optical scanning apparatus
US3673325A (en) * 1970-04-10 1972-06-27 Hoffrel Instr Inc Cathode ray tube display system for ultrasonic and radar echo signals
GB1262416A (en) * 1970-06-30 1972-02-02 Standard Telephones Cables Ltd Range-gated vision system
US3895388A (en) * 1973-10-25 1975-07-15 Ibm Adaptive illuminator
US3947119A (en) * 1974-02-04 1976-03-30 Ball Brothers Research Corporation Active sensor automatic range sweep technique
US4030831A (en) * 1976-03-22 1977-06-21 The United States Of America As Represented By The Secretary Of The Navy Phase detector for optical figure sensing
US4277167A (en) * 1976-08-25 1981-07-07 The United States Of America As Represented By The Secretary Of The Navy Depth mapping system
US4143400A (en) * 1977-03-03 1979-03-06 The United States Of America As Represented By The Secretary Of The Navy Real-time optical mapping system
US4195311A (en) * 1978-08-28 1980-03-25 The United States Of America As Represented By The Secretary Of The Navy Coherence length gated optical imaging system
US4174524A (en) * 1978-09-25 1979-11-13 The United States Of America As Represented By The Secretary Of The Navy Ultra high speed gated pulse optical imaging system
US4696140A (en) * 1983-01-03 1987-09-29 Marshall Robert H Connector guide system for construction walls
IL72878A (en) * 1984-09-06 1988-10-31 Tadiran Ltd Reconnaissance system
GB2164816B (en) * 1984-09-25 1988-06-29 English Electric Valve Co Ltd Television cameras
US4707128A (en) * 1984-12-31 1987-11-17 Subsea Engineering Associates, Inc. Turbid media viewing system

Also Published As

Publication number Publication date
IL90906A (en) 1993-03-15
ATE116786T1 (de) 1995-01-15
EP0378669A1 (de) 1990-07-25
US4862257A (en) 1989-08-29
JP2938912B2 (ja) 1999-08-25
WO1990000848A1 (en) 1990-01-25
DE68920422D1 (de) 1995-02-16
AU3967189A (en) 1990-02-05
CA1334998C (en) 1995-03-28
EP0378669A4 (en) 1991-04-10
JPH03501413A (ja) 1991-03-28
NZ229855A (en) 1991-09-25
EP0378669B1 (de) 1995-01-04
IL90906A0 (en) 1990-02-09

Similar Documents

Publication Publication Date Title
DE68920422T2 (de) Bildformungs-lidarsystem.
CA1332978C (en) Imaging lidar system using non-visible light
DE69635891T2 (de) Verbesserte optische kamera zur entfernungsmessung
DE3329590C2 (de) Verfahren und Vorrichtung zur Harmonisierung mehrerer optisch/optronischer Achsen einer Zieleinrichtung auf eine gemeinsame Bezugsachse
US4963024A (en) Method and apparatus for determining K factor
DE102017115710A1 (de) LIDAR-Anordnung und LIDAR-Verfahren
US5034810A (en) Two wavelength in-situ imaging of solitary internal waves
DE3404396C2 (de)
DE60125683T2 (de) Anordnung und Verfahren zur Entfernungsmessung
DE2618400A1 (de) Ueberwachungsanordnung
DE2717749A1 (de) Lasergestuetztes ueberwachungssystem
EP1470434A2 (de) Tiefenerfassende bildgebende vorrichtung
DE4129912C1 (de)
US5519209A (en) High range resolution active imaging system using a high speed shutter and a light pulse having a sharp edge
DE1287111B (de) Elektro-optische Abbildungseinrichtung
DE1274365B (de) Verfahren und Einrichtung zur Darstellung und/oder Aufzeichnung des gleichzeitigen Verlaufes der waehrend eines sehr kurzen Zeitintervalls auftretenden Intensitaetsaenderung an mehreren Punkten einer linienfoermigen Strahlungsquelle
DE1537952B2 (de) Verfahren und Vorrichtung zur Erzeugung des Abbildes einer Szene
Witherspoon et al. Feasibility testing of a range-gated laser-illuminated underwater imaging system
DE2607169A1 (de) Verfahren und messanordnung zur bestimmung des konzentrationsprofils von luftverunreinigungen oder natuerlichen bestandteilen in der atmosphaere
DE2940536C2 (de) Anordnung zur Aufnahme eines Wärmebildes
DE3506088A1 (de) Optisches system zum empfang von waerme- und laserstrahlung
DE2150969C3 (de) Vorrichtung zum Erfassen meteorologischer Zustände
DE2150969B2 (de) Vorrichtung zum Erfassen meterologischer Zustände

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee