DE68920422T2 - Bildformungs-lidarsystem. - Google Patents
Bildformungs-lidarsystem.Info
- Publication number
- DE68920422T2 DE68920422T2 DE68920422T DE68920422T DE68920422T2 DE 68920422 T2 DE68920422 T2 DE 68920422T2 DE 68920422 T DE68920422 T DE 68920422T DE 68920422 T DE68920422 T DE 68920422T DE 68920422 T2 DE68920422 T2 DE 68920422T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- light
- light pulses
- camera
- water
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 42
- 238000003384 imaging method Methods 0.000 claims abstract description 27
- 238000001514 detection method Methods 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 22
- 230000003287 optical effect Effects 0.000 claims description 5
- 239000000835 fiber Substances 0.000 claims description 4
- 238000004040 coloring Methods 0.000 claims 1
- 238000001914 filtration Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 claims 1
- 230000008901 benefit Effects 0.000 abstract description 5
- 230000002238 attenuated effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 230000001934 delay Effects 0.000 description 6
- 230000010354 integration Effects 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 3
- 238000002310 reflectometry Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000001816 cooling Methods 0.000 description 2
- 239000013078 crystal Substances 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 239000013535 sea water Substances 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- -1 vapor Substances 0.000 description 2
- 101000694017 Homo sapiens Sodium channel protein type 5 subunit alpha Proteins 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 239000003653 coastal water Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000003897 fog Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000003954 umbilical cord Anatomy 0.000 description 1
- 238000013022 venting Methods 0.000 description 1
- 238000003079 width control Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
- G01S17/18—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Telephone Function (AREA)
- Developing Agents For Electrophotography (AREA)
- Photoreceptors In Electrophotography (AREA)
- Measurement Of Optical Distance (AREA)
- Geophysics And Detection Of Objects (AREA)
- Radar Systems Or Details Thereof (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Fire-Detection Mechanisms (AREA)
Description
- Die vorliegende Erfindung bezieht sich allgemein auf ein Verfahren und eine Vorrichtung zur bildlichen Ferndarstellung von Unterwasserobjekten. Insbesondere bezieht sich die vorliegende Erfindung auf ein Verfahren zur Erfassung und bildlichen Darstellung von Unterwasserobjekten mittels eines neuartigen LIDAR (light detection and ranging)-Systems (Lichterfassungs- und Entfernungsmessungs-Systems).
- Es besteht ein fortwährendes Bedürfnis, Verfahren zu entwickeln zum Erfassen von Unterwasserzielen von entfernten Stellen aus (beispielsweise aus der Luft), und über relativ kurze Zeitperioden. Dies ist von besonderer Bedeutung in dem Fall gewisser militärischer Anwendungen, wo beispielsweise die Erfassung von vertäuten Minen von Hubschraubern und anderen Luftfahrzeugen aus entscheidend ist, um sichere Meere zu gewährleisten. Gegenwärtig müssen umständliche und zeitraubende Kabelvorrichtungen verwendet werden. Diese Vorrichtungen werden in das Wasser abgesenkt, und können natürlich leicht beschädigt werden und verlorengehen. Kabelvorrichtungen machen außerdem die Zielsuche relativ langsam, und können nur Ziele erfassen, ohne eine bildliche Darstellung zu liefern.
- Außer der Erfassung von Unterwasserminen umfassen andere militärische Anwendungen zur Unterwasser-Zielerfassung die Erfassung von Unterseebooten und Nachrichtenbojen. Es gibt auch eine Reihe von zivilen Anwendungen für ein genaues System zur Fernerfassung von Unterwasserobjekten.
- Es ist jedoch kein funktionsfähiges System zur Fernerfassung und bildlichen Darstellung von Objekten unter Wasser (oder Objekten, die durch andere Medien, wie Eis, Schnee, Nebel, Rauch und Staub verborgen werden) bekannt, mit dem eine genaue und präzise bildliche Darstellung über kurze Zeitperioden und von einer Vielzahl von fernen Plattformen aus, einschließlich Flugzeugen, Schiffen und Unterseebooten, erhalten wird.
- In US-A-4.707.128 wird ein Bildwiedergabesystem beschrieben, das für die Verwendung in trüben Medien, wie beispielsweise Meerwasser bestimmt ist. Bei diesem Bildwiedergabesystem werden stark gebündelte Lichtimpulse verwendet, um ein Ziel punktweise abzutasten. Die reflektierten Lichtimpulse werden nach Ablenkung über einen Strahlenteiler erfaßt, und es wird ein Signal erzeugt, das repräsentativ für die Intensität eines zurückgeworfenen Strahlimpulses ist. Um das auf das gestreute Licht zurückzuführende Signal weitgehend zu eliminieren, wird ein Abtast/Speichermodul aktiviert, um nur das Ausgangssignal abzutasten und zu speichern, das auf den direkt reflektierten Impuls zurückzuführen ist. Um dies zu erreichen, wird der Abtast/Speichermodul des Laserimpulsgenerators nach einer geeigneten Verzögerung getriggert, die von der Entfernung des Ziels bestimmt wird.
- In US-A-4.174.524 wird ein System beschrieben zur kartographischen Tiefenerfassung von einem über dem Wasser fliegenden Flugzeug aus. Ein Signalkomparator vergleicht dabei jedes der reflektierten Strahlungssignale mit dem Luft/Wasser-Grenzflächen-Strahlungssignal und steuert einen Bildschirm, der die Tiefe der reflektierenden Oberfläche gegenüber der vorgegebenen Fläche veranschaulicht.
- Der Zweck der vorliegenden Erfindung ist, ein Verfahren und eine Vorrichtung zur Erfassung und bildlichen Darstellung eines von einem zurückstreuenden Medium umhüllten Objekts vorzuschlagen, wobei das abgebildete Objekt ein verbessertes Signal/Rauschverhältnis aufweist.
- Dieser Zweck wird mittels eines in dem Patentanspruch 1 beanspruchten Verfahrens und einer in dem Patentanspruch 16 beanspruchten Vorrichtung erreicht.
- Die vorliegende Erfindung wird in dieser Beschreibung als LIDAR- Bilderzeugungssystem bezeichnet. Bei bevorzugten Ausführungsformen der vorliegenden Erfindung wird ein Laser verwendet, um kurze Lichtimpulse mit Impulsbreiten in der Größenordnung von Nanosekunden zu erzeugen. Das Laserlicht wird durch eine Optik expandiert und hinunter auf die Oberfläche des Wassers und auf ein Objekt oder Ziel gesandt. Verstärkte CCD (charged coupled device)-Kameras (Kameras mit ladungsgekoppeltem Baustein) werden nach einer Zeitverzögerung, die der Laufzeit bis zu dem Ziel und wieder zurück entspricht, elektronisch aufgesteuert. Diese Zeitsteuerung eliminiert das Licht, das von dem Wasser vor und hinter dem Ziel gestreut wird. Dies hat zur Folge, daß die verschleiernde Helligkeit des Wassers wesentlich abgeschwächt wird und schwache Zielumrisse gesehen werden können. Die sich ergebenden gategesteuerten Bilder (die auf einem Bildschirm wiedergegeben werden) haben genügend räumliche Auflösung, um das Ziel zu klassifizieren und/oder zu identifizieren. Dieses bilderzeugende Merkmal bietet die Möglichkeit einer verminderten Fehlalarmhäufigkeit im Vergleich zu einem nicht-bilderzeugenden System.
- Das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung nutzt die Tatsache aus, daß alle undurchsichtigen Ziele einen Schatten werfen. Die Belichtung der zwei Kameras des Systems ist zeitlich so gesteuert, daß eine Kamera ein Bild des Ziels gegenüber dem von dem Wasser zurückgestreuten Licht liefert, während die andere Kamera ein Bild des Schattens des Ziels gegenüber dem von dem Wasser zurückgestreuten Licht erzeugt. Diese zwei Bilder werden dann voneinander subtrahiert (z.B. differentielle Bilderzeugung), um die Erfaßbarkeit des Ziels zu verbessern. Das subtrahierte Bild kann dann farblich dargestellt werden, um die Identifizierung des Ziels zu erleichtern.
- Die Subtraktion bei den zwei Bildern ergibt in der Tat ein verbessertes Signal/Rauschverhältnis (SRV) des abgebildeten Ziels. Das bei der differentiellen Bilderzeugung erhaltene SRV wird von einem theoretischen Modell vorhergesagt, und ist gleich den erfaßten Zielphotonen minus den erfaßten Wasserhintergrund-Photonen, geteilt durch die Quadratwurzel aus der Summe der erfaßten Photonen.
- Die vorliegende Erfindung kann sowohl in der Nacht, als auch am Tag eingesetzt werden. Für den Einsatz am Tag werden Bandpaßfilter, die bezüglich der Laserlinie zentriert sind und eine Bandbreite von einigen Nanometern haben, auf die Kameralinsen aufgesetzt. Die Kombination der kurzen Belichtungszeit der Kameras mit der Abschwächung durch das Bandpaßfilter bewirkt, daß der Beitrag des Sonnenlichts zu den Bildern vernachlässigbar ist.
- Das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung ist nicht auf die Bilderzeugung durch die Luft/Wasser-Grenzfläche hindurch beschränkt. Ein identisch es System kann von einem Unterwasserfahrzeug aus eingesetzt werden, um Bilder in einer beliebigen Richtung unter dem Wasser wiederzugeben. In ähnlicher Weise könnte diese Erfindung verwendet werden, um durch Eis (wie beispielsweise die polaren Eisdecken), und andere Medien hindurchzusehen. Die einzige Anforderung an die physikalische Form des Mediums ist in der Tat, daß das Medium über einen Entfernungsbereich, der mehreren Kamera-Gatebreiten entspricht, mindestens teilweise lichtdurchlässig ist. Das Medium kann daher Wasser, Dampf, Nebel, Rauch, Eis, Schnee, Aerosole, Staub, usw. umfassen.
- Die oben diskutierten und andere Merkmale und Vorteile der vorliegenden Erfindung werden für Fachleute auf diesem Gebiet aufgrund der folgenden ausführlichen Beschreibung und der Zeichnungen ersichtlich und verständlich werden.
- Im Folgenden wird auf die Zeichnungen Bezug genommen, bei denen in den verschiedenen FIGUREN gleiche Elemente mit den gleichen Kennziffern bezeichnet sind.
- Die FIGUR 1 ist ein Blockschaltbild, das das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung wiedergibt.
- Die FIGUR 2 ist eine schematische Darstellung des gepulsten Lasers, der bei dem System der FIGUR 1 verwendet wird.
- Die FIGUR 3 ist eine Darstellung eines räumlichen Profils eines einzelnen Impulses des Lasers der FIGUR 2.
- Die FIGUR 4 ist ein schematisches Schaltbild von einer der CCD-Kameras, die in Verbindung mit dem System der FIGUR 1 verwendet werden.
- Die FIGUR 5 ist ein schematisches Schaltbild des Zeitsteuersystems für die CCD-Kameras der FIGUR 4.
- Die FIGUR 6 ist ein schematisches Schaltbild des Video- Verarbeitungssystems, das bei dem System der FIGUR 1 verwendet wird.
- Zunächst wird auf die FIGUR 1 Bezug genommen. Das LIDAR- Bilderzeugungssystem der vorliegenden Erfindung weist im allgemeinen einen Laser 10 auf, der verwendet wird, um kurze Lichtimpulse mit Impulsbreiten in der Größenordnung von Nanosekunden (z.B. weniger als ungefähr 10 nm) zu erzeugen. Das Laserlicht wird durch eine Optik 12 expandiert und hinunter auf die Oberfläche 14 eines Wasserkörpers 16 gesandt. Zwei verstärkte CCD- Kameras 18 und 20 werden nach einer Zeitverzögerung, die der Laufzeit bis zu einem Ziel 26 und wieder zurück entspricht, über Impulszeitsteuergeneratoren 22 und 24 elektronisch aufgesteuert. Diese Zeitsteuerung eliminiert das von dem Wasser vor und hinter dem Ziel gestreute Licht. Dies hat zur Folge, daß die verschleiernde Helligkeit des Wassers stark abgeschwächt wird und schwache Zielumrisse erkannt werden können. Die von den Kameras 18 und 20 empfangenen Lichtsignale werden von dem Videoprozessor 28 verarbeitet und auf dem Bildschirm 30 wiedergegeben. Die sich ergebenden gategesteuerten Bilder haben eine genügende räumliche Auflösung, um das Ziel zu klassifizieren und/oder zu identifizieren.
- Das LIDAR-System der FIGUR 1 kann sowohl in der Nacht, als auch am Tag eingesetzt werden. Für den Einsatz am Tag werden Bandpaßfilter 32, die bezüglich der Laserlinie zentriert sind und eine Bandbreite von einigen Nanometern haben, auf die Kameralinsen aufgesetzt. Die Kombination der kurzen Belichtungszeit der Kameras mit der Abschwächung durch das Bandpaßfilter bewirkt, daß der Beitrag des Sonnenlichts zu den Bildern vernachlässigbar ist. Wahlweise können auch zwei Polarisationsfilter-Paare 34 verwendet werden.
- Bei Ozeananwendungen wird eine Photodiode oder eine Photomultiplier- Röhre 35 verwendet. Das Reflexionsvermögen von Meerwasser beträgt ungefähr 0,02, so daß ein Bruchteil des Laserlichts von der Oberfläche reflektiert wird und von der Lawinenphotodiode oder Photomultiplier-Röhre 35 erfaßt wird. Dieses Oberflächen-Rücksignal wird zum Einstellen der Zeitsteuerverzögerung verwendet, um Veränderungen der Höhe der Plattform zu berücksichtigen. Die Wellenbewegung auf der Oberfläche beeinflußt das Bild von Unterwasserobjekten, wobei sie bewirkt, daß das Bild zittert und sogar in mehrere Bilder aufbricht. Die Formen und Einzelheiten der Objekte sind jedoch für einen Beobachter, der das Bild betrachtet, noch erkennbar, da das Auge dazu neigt, die Bewegung der Wellen auszumitteln.
- Die Verwendung von zwei ICCD-Kameras 18 und 20, um eine differentielle Bilderzeugung zu verwirklichen, ist ein wichtiges Merkmal der vorliegenden Erfindung, wobei diese zwei Kameras miteinander kombiniert werden, um die Erfaßbarkeit und die bildliche Darstellung des Unterwasserobjekts zu verbessern. Bei den zwei Kameras wird die Tatsache ausgenutzt, daß alle undurchsichtigen Ziele einen Schatten werfen. Die Belichtung der zwei Kameras wird zeitlich so gesteuert, daß eine Kamera ein Bild des Ziels gegenüber dem von dem Wasser zurückgestreuten Licht erzeugt, während die andere Kamera ein Bild des Schattens des Ziels gegenüber dem von dem Wasser zurückgestreuten Licht erzeugt. Diese zwei Bilder werden dann voneinander subtrahiert, um die Erfaßbarkeit des Ziels zu verbessern. Das subtrahierte Bild kann dann farblich dargestellt werden, um die Identifizierung des Ziels zu erleichtern.
- Das erfindungsgemäße Merkmal differentielle Bilderzeugung verbessert das Signal/Rauschverhältnis (SRV). Das Signal/Rauschverhältnis (SRV) eines abgebildeten Ziels wird von den Eigenschaften des Wassers und der Tiefe des Ziels beeinflußt. Das Laserlicht wird infolge Absorption und Streuung durch das Wasser geschwächt. Je tiefer ein Ziel gelegen ist, desto weniger Licht erreicht das Ziel, und desto weniger Licht wird nach der Sammeloptik des Systems zurückgesandt. Der wirksame Abschwächungskoeffizient ist der Koeffizient K für die diffuse Abschwächung durch das Wasser. K reicht von einem Wert von ungefähr 0,05 pro Meter in klarem, tiefem Ozeanwasser bis zu Werten von 1,0 pro Meter in Küstenwasser. Das SRV des Systems wird außerdem von der Laserimpulsenergie, den Flächen der Kameralinsen, der Höhe des Systems über dem Wasser, dem Reflexionsvermögen des Ziels, und der Quantenausbeute des Kamera-Erfassungssystems beeinflußt. Um das SRV eines Ziels für verschiedene Tiefen und K-Werte vorherzusagen, wurde ein theoretisches Modell entwickelt. Da die Kameras verstärkt werden, ist das dominierende Rauschen beim Erfassen eines Ziels das inhärente Photonenrauschen. Das SRV ist dann gleich den erfaßten Zielphotonen minus den erfaßten Wasserhintergrund-Photonen, geteilt durch die Quadratwurzel aus der Summe der erfaßten Photonen.
- Die vorliegende Erfindung wird nun wesentlich ausführlicher beschrieben. Die folgende Beschreibung bezieht sich auf eine bevorzugte Ausführungsform, und die Modelle der einzelnen Geräte, die Hersteller, und ähnliche Einzelheiten werden nur als Beispiel angegeben.
- Das bevorzugte Lasersystem, das bei dem System der vorliegenden Erfindung verwendet wird, ist ein gepulster Spektra Physics DCR-4 Nd:YAG- Laser, der kurze Infrarotlicht-Impulse bei 1064 nm aussendet. Der Laser wird mittels eines Frequenzvervielfachers, der einen Frequenzverdoppelungskristall enthält, im grünen Bereich (532 nm) betrieben. Der Frequenzvervielfacher ist vor der Austrittsöffnung des Laserhohlraums extern angebracht. Der Winkel, unter dem der anfängliche Laserimpuls (1064 nm) auf den Kristall auffällt, kann fein abgestimmt werden, so daß der Prozentsatz an grünem Licht gegenüber dem IR, das aus dem Frequenzvervielfacher austritt, variiert werden kann. Im allgemeinen hat der Frequenzvervielfacher einen Wirkungsgrad von ungefähr 50%, so daß die Ausgangsleistung in dem grünen Bereich ungefähr die Hälfte der Infrarot-Eingangsleistung beträgt.
- Wie in der FIGUR 2 gezeigt ist, wird bei dem gepulsten Nd:YAG-Laser ein beugungsgekoppelter Resonator 36 verwendet, bei dem eine hohe Energie, eine gute Stabilität, eine gute Strahlqualität, und ein hoher Grad von räumlicher Kohärenz erhalten wird. Der Nd:YAG-Stab wird mittels einer Hochspannungsblitzlampe 38 optisch angeregt. Der Ausgangskoppler (Frontlinse 40) hat einen einzelnen Fleck 42 mit hohem Reflexionsvermögen, der in dem Zentrum des konvexen Substrats gelegen ist. Der hintere Spiegel 44 ist ein konkaver Hochleistungs-Reflektor, der den Strahl parallel macht und die thermische Linsenwirkung des Nd:YAG-Stabes kompensiert. Der parallele Strahl verläuft auf seinem Austrittsweg durch den Stab hindurch, und das Licht wird um des Rand des auf dem vorderen Ausgangskoppler gelegenen Flecks herum gebeugt. Dabei wird ein charakteristisches räumliches "Flußverstärker"- Profil erzeugt, wie in der FIGUR 3 gezeigt ist. Um die zeitliche Breite des Impulses zu regeln, wird ein Q-Switch (Pockels-Zelle) in Verbindung mit einem Marx-Band und einer Lambda-Viertel-Platte verwendet. Die anfängliche Energiespeicherung erfolgt durch die Lambda-Viertel-Platte. Um den Lichtimpuls zu erzeugen, wird eine sehr schnelle Hochspannungs-Wellenform auf die Pockels-Zelle gegeben.
- Die bevorzugten Ausgangsspezifikationen des für das System der vorliegenden Erfindung verwendeten Nd:YAG-Lasers sind:
- Impulsbreite bei 532 nm » 3 ns
- Impulsenergie bei 532 nm » 550 Millijoule
- Impulsfrequenz 15 Hz
- Ausgangsimpulsinstabilität < 0,5 nsec bezüglich des Synchronisationsimpulses
- Gesamtgewicht der Einheit » 230 kg
- Der Laser wird extern gekühlt mittels eines unabhängigen Kühlsystems. Außerdem werden alle Hohlräume entlüftet. Das Kühlsystem, die Elektronik und das Entlüftungssystem sind in einer getrennten Stromversorgung untergebracht, die auf einem Rack montierbar ist. Alle Kabel und Luft- und Wasserleitungen sind über eine 3 m lange Nabelschnur mit dem Laserkopf und der Stromversorgung verbunden. Der Laser kann mit Wechselstrom von 208V, 60Hz, einphasig, oder von 120/220V betrieben werden.
- Bei dem bevorzugten System der vorliegenden Erfindung werden zwei Marco Scientific-Kameras, Modell 201 verwendet, von denen eine in der FIGUR 4 wiedergegeben ist. Der bei diesen Kameras verwendete Bildsensor 46 ist ein Thompson CSF charge coupled device (CCD), Modell TH-7882-FO, der von der CCD-Elektronikpackung 47 gesteuert wird. Dieser spezielle CCD weist ein Faseroptikfenster 48 auf, das verwendet wird, um den Sensor an eine Verstärkerröhre anzukoppeln. Die Verstärkerröhre 50 dient sowohl als Lichtverstärker, als auch als ultraschneller Verschluß, der durch einen Hochspannungsverstärker 52 gesteuert wird. Diese Kameras enthalten außerdem einen eingebauten digitalen Einzelbild-Speicher/Abtast-Wandler 54, dessen Ausgangssignal in eine analoges RS170-Signal umgewandelt wird zwecks Wiedergabe auf einem Standardmonitor 30 und zwecks weiterer Bildverarbeitung.
- Die Verstärkerröhre 50 ist eine DEP-Verstärkerröhre, Modell XX1420, mit zwei Verstärkungsstufen. Die erste ist ein Verstärker vom Typ Gen II mit Mikrokanalplatte (MKP); die zweite ist eine fokussierte Gen I-Näherungsdiode. Die Netto-Helligkeitsverstärkung ist nominal 100.000. Die S-20-Photokathode der Röhre definiert die Farbempfindlichkeit für die gesamte Kamera und legt die Quantenausbeute-Begrenzung bei ungefähr 7% fest. Der Anoden-Phosphor an dem hinteren Ende der Röhre ist faseroptisch mit dem CCD-Sensor gekoppelt. Ein Steuerschalter an dem Kameragehäuse ermöglicht die Auswahl einer Verstärker-Gatebreite von 10, 20 oder 40 nsec. Dies entspricht einer Belichtungseinstellung für die Kamera.
- Der verwendete CCD ist eine neuartige Einzelbild- Übertragungsvorrichtung. Bei den bisherigen bekannten RS170-kompatiblen Einzelbild-Übertragungsvorrichtungen wird normalerweise ein Bild auf der Bildfläche integriert und dann nach einem angrenzenden Speichergebiet des CCD verschoben. Bei jeder neuen Fernsehzeile schiebt das horizontale Register die gespeicherte Information hinaus. Da das normale Fernsehen in einem Halbbild-Modus arbeitet, kann der CCD infolge einer Phasenverschiebung zwischen dem ungeraden und dem geraden Halbbild in einer Art von Halbbild-Auslesemodus arbeiten. Bei diesen bisherigen Bausteinen belegt die Speicherfläche den halben Sensor, und nur die Hälfte der Elemente integriert tatsächlich Licht. Es ist wichtig, anzumerken, daß der bei der erfindungsgemäßen Kamera vom Modell 201 verwendete Sensor die gesamte Fläche des Chips für die Lichtintegration ausnutzt, und daher im allgemeinen nicht mit dem RS170-Standardbetrieb kompatibel ist. Wie nachstehend diskutiert wird, ergeben sich deutliche Vorteile bei der maximalen Empfindlichkeit des Systems, wenn eine Chipfläche mit 100% Empfindlichkeit verwendet wird.
- Der CCD weist 568 Zeilen mal 382 Spalten mit quadratischen Pixeln von 23 Mikrometer in einem aneinandergrenzenden Format auf. Von dieser Anordnung werden nur nominal 512 Zeilen verwendet, um das richtige Bildseitenverhältnis zu verwirklichen zwecks Wiedergabe auf einem Standard-Videomonitor (Bildseitenverhältnis 4:3). Infolge des Wunsches nach einem maximalen Signal/Rauschverhältnis und infolge der begrenzten Anforderung bezüglich der räumlichen Auflösung wird bei der Kamera vom Modell 201 das Pixel-Binning ausgenutzt. Das horizontale Register verschiebt zwei Ladungspakete nach jeder Ladungserfassungsstufe, bevor die Stufe wieder geltend gemacht wird, und vier CCD-Zeilen werden nach dem horizontalen Schieberegister verschoben und vor der Übertragung summiert. Auf diese Weise ergibt sich eine wirksame Anordnung mit 128 Zeilen mal 191 Spalten von Elementen (Bins), die eine Größe von 92 mm x 46 mm haben. Jedes dieser Bins hat die gleiche Auslese-Rauschbegrenzung wie ein einzelnes Pixel, aber erfaßt das Signal 8 Mal. Das Binning ergibt daher eine Verbesserung des SRV von ungefähr 2,8.
- Wie oben erwähnt wurde, ist der hier verwendete CCD im allgemeinen nicht kompatibel mit dem RS170-Standard-Video-Ausgangssignal. Bei dem LIDAR-Bilderzeugungssystem der vorliegenden Erfindung läuft die folgende Sequenz ab, um ein geeignetes Video-Ausgangssignal zu erhalten:
- (1) Bei dem CCD erfolgt eine kontinuierliche Abwärtsverschiebung bei den horizontalen Schieberegistern, um eine eventuelle Dunkelstrom- Bildung zu löschen.
- (2) Ein externes Triggersignal schaltet den Verstärker ein, um eine Belichtung zu starten. Bei Eingang dieses Signals wird der CCD- Schiebemodus unterbrochen, und während der nächsten 3,2 msec ist der CCD in dem Integrationsmodus. Die 3,2 msec ermöglichen dem Phosphor-Nachleuchten, nach der kurzen Belichtung (20-40 nsec) bis auf weniger als 5% abzuklingen, wodurch sie zur Optimierung des SRV dienen.
- (3) Am Ende der 3,2 msec wird der CCD in den Auslesemodus umgeschaltet, wo die angehäufte Ladung für jedes Bin in den digitalen Einzelbildspeicher eingelesen wird. In dem Einzelbildspeicher erfolgt zusätzlich zu der Digitalisierung der Daten eine Formatmanipulation, bei der das Sensorbild tatsächlich um 90 Grad gedreht wird (das heißt, die Spalten werden in Zeilen umgewandelt, und umgekehrt). Das Bildseitenverhältnis 3:4 des Sensors wird nun auf das Bildseitenverhältnis 4:3 eines Standard- Videomonitors einwandfrei abgebildet. Dieser ganze Prozeß dauert 8,2 msec.
- (4) Wenn die Auslesung nach dem Einzelbildspeicher beendet ist, kehrt der CCD zu dem kontinuierlichen Schiebemodus zurück, um Dunkelstrom-Bildung zu eliminieren, bis das nächste Verstärker- Triggersignal empfangen wird.
- Ein D/A-Konverter gibt die Einzelbild-Speicherinformation als ein Video- Halbbild aus. Dieses Halbbild wird mit 60 Hz wiederholt, bis der Einzelbildspeicher aktualisiert wird. Die alternierenden Halbbilder bei dem Video werden, obwohl sie identisch sind, in der herkömmlichen Weise nach dem Zeilensprungverfahren überlagert. Jedesmal, wenn das Signal empfangen wird, um bei dem Sensor eine Integration und Auslesung zu beginnen, wird bei dem Video ein einzelnes leeres Halbbild erzeugt. Dabei liegt die Gesamtzeit für die Integration und die Auslesung (3,2 + 8,2 msec) innerhalb eines Halbbild- Intervalls (16,67 msec). Es sollte angemerkt werden, daß das Video-Halbbild aus 190 Zeilen besteht. Nach den 190 Zeilen schaltet der Einzelbild-Wandler auf einen Standard-Fernsehwiedergabemodus um und gibt die restlichen Zeilen als Schwarz wieder.
- Die zwei Kameras müssen in einem synchronen Modus betrieben werden, um die Verwendung eines analogen Subtraktors für die zwei Bilder zu ermöglichen. Ein Synchronisationskabel, das die zwei Kameras miteinander verbindet, ermöglicht den Kamerasynchronisations-Ausgangssignalen einer Kamera, alle Tastsignale für die zweite Kamera zu steuern. Jede Kamera kann bei der Zeitsteuerung als Mutterkamera fungieren, wobei die andere Kamera als Tochterkamera dient. Wenn das Kabel angeschlossen ist, schaltet eine Multiplexerschaltung in der Tochterkamera das Taktsignal von dem internen Controller-Chip nach der externen Signalquelle um. Auf diese Weise werden die zwei Kameras Pixel um Pixel synchronisiert.
- Einige der Kamera-Steuermerkmale wurden bereits erwähnt. Diese umfassen die externe Trigger-Gatesteuerung über einen Eingang an dem Kameragehäuse und den Gatebreiten-Steuerschalter (10, 20 oder 40 nsec). Das Kameragehäuse weist außerdem drei Ausgänge auf. Der Verstärkungsmonitor gibt eine geteilte Reproduktion des Hochspannungs- Gatesteuerimpulses wieder, der auf die Verstärkerröhre gegeben wird. Das Einzelbild-Synchronisations-Ausgangssignal ist ein 1,98 msec breiter, negativer TTL-Impuls, der den Start eines ungeraden Halbbildes bei dem Video anzeigt, und daher eine Frequenz von 30 Hz hat. Das Halbbild-Synchronisations- Ausgangssignal ist ein 1,33 msec breiter, negativer TTL-Impuls, der die Rücklauf-Austastung (oder den vertikalen Rücklauf) anzeigt, die zwischen den einzelnen Halbbildern des Video mit 60 Hz erfolgt. Eine in einem Rack montierbare Stromversorgung liefert die Niederspannung für die Kameraelektronik, sowie die Hochspannungen, die für die zwei Stufen der Verstärkerröhre benötigt werden. Auf der Frontplatte der Stromversorgung ist ein Potentiometer für die manuelle Einstellung der Hochspannung vorgesehen. Mit diesem Potentiometer wird die Verstärkung der Röhre variiert und überwacht. Bei einer bevorzugten Ausführungsform wird eine automatische Verstärkungssteuerschaltung verwendet, um die Verstärkung bei der Halbbild- Frequenz automatisch zu korrigieren.
- Nachstehend wird auf die FIGUR 5 Bezug genommen, in der das Zeitsteuer-Schaltbild für das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung wiedergegeben ist. Die hauptsächlichen Elemente bei dem Zeitsteuer-Schaltbild sind die "Mutter"-Kamera 18 und ein digitaler Verzögerungsgenerator 24 von Standard Research, Modell DG535. Aus dem 30 Hz-Einzelbild-Synchronisationssignal von der Mutterkamera wird durch Teilung ein 15 Hz-Signal erzeugt, das zum Triggern des Lasers verwendet wird (siehe FIGUR 1). Dabei möchten wir daran erinnern, daß das Einzelbild- Synchronisationssignal am Anfang des Intervalls des ungeraden Teilbildes bei dem Video der Kamera auftritt. Ungefähr 250 msec nach dem Triggersignal wird ein Laser-Ausgangsimpuls erzeugt. Das Laser-Scintillations-Rücksignal von der Wasseroberfläche wird von einem Antel Optronics ARX - SA Hochgeschwindigkeits-Lawinen-Photodetektor 35 (siehe FIGUR 1) erfaßt. Angesichts der erwarteten Höhe der Plattform bei einem betriebsbereiten System wird die Scintillationserfassung im allgemeinen in der Größenordnung von 1 msec nach der Aussendung des Laserimpulses erfolgen. Das Photodetektorsignal wird durch einen Modern Instrument Technology F-100T- Impulsvorverstärker und Rauschdiskriminator 37 aufbereitet. Die Schwelle des FT-100T wird über dem Rauschpegel und in dem linearen Gebiet der Signalquelle eingestellt. Wenn die Signalquelle den Schwellenpegel erreicht, wird ein 100ns breiter TTL-Impuls ausgegeben. Dieser TTL-Impuls triggert die Stanford-Verzögerungseinheit 24, die den Impuls um ungefähr 3 ms verzögert, bevor eine zweite Stanford-Verzögerungseinheit 22 getriggert wird. Diese zweite Stanford-Verzögerungseinheit ist die primäre Zeitsteuerung für das System und wird zum Triggern der Verstärker-Gatesteuerung bei jeder der zwei CCD-Kameras 18 und 20 verwendet. Sie wird eingestellt für eine A- und B- Verzögerung von (66 2/3 ms - Systemverzögerungen + gewünschte Wassertiefen-Verzögerung). Folglich werden die Kameras bei dem zuvor erfaßten Scintillationsimpuls tatsächlich getriggert. Die 3 ms Verzögerung der ersten Stanford-Verzögerungseinheit werden benötigt, um die Sperrzeit- Periode der zweiten Stanford-Verzögerungseinheit zu vermindern, die mit einer konstanten Frequenz von 15 Hz getriggert wird. Die Systemverzögerungen liegen in der Größenordnung von 130ns (das heißt, 40ns Laufzeitverzögerung des Kameragates, 85ns Laufzeitverzögerung der Stanford- Verzögerungseinheit, und weniger als 5ns für andere Verzögerungen, wie Kabellängen, usw.). Diese Verzögerungen können genau gemessen werden und sollten Scintillationsspezifikationen von weniger als 1ns haben. Die Stanford-Verzögerungseinheit kann mit ihrem internen Zeitbasis-Oszillator einen Impuls um viele Millisekunden sehr genau verzögern. Die RMS- Scintillationsspezifikation ist definiert als: (50ps + Verzögerung X 10E-8). Beispielsweise haben Verzögerungen in der Größenordnung von 70ms eine RMS-Scintillationsspezifikation von 0,7ns. Wenn das System einmal geeicht ist, ist die Verzögerung unabhängig von der Entfernung von der Wasseroberfläche (das heißt, das System steuert eine sich ändernde Plattformhöhe automatisch nach). Dies erfordert jedoch, daß das Ereignis bei einer Grundfrequenz von 15 Hz innerhalb von 2ns genau ausgelöst wird. Dies ist nur möglich, wenn das Einzelbild-Synchronisationssignal der CCD-Kamera innerhalb von 1ns stabil ist, und die Laserscintillation an dem TTL-Eingang innerhalb von 1ns stabil ist.
- Wenn die Einzelheiten der oben beschriebenen Kamerabetätigung betrachtet werden, ist nun die Zeitsteuerung des gesamten Systems festgelegt: Die Videosignale der zwei Kameras sind voll synchronisiert. Am Anfang jedes zweiten ungeraden Video-Halbbildes wird ein Ereignis ausgelöst (das heißt, der Laser wird mit 15 Hz gepulst). Das Laser-Rücksignal wird erfaßt, und die Impuls-Laufzeit wird bei dem nächsten Ereignis (Laserimpuls) berücksichtigt, um die Gate-Aufsteuerung der Kameras für eine vorgegebene Wassertiefe zu der gewünschten Zeit vorzunehmen. Diese Gatesteuerung erfolgt immer während der ersten mehreren hundert Mikrosekunden der Intervalle der alternierenden ungeraden Video-Halbbilder. Danach erfolgen die Sensorintegration und die Auslesung während 3,2 msec bzw. 8,2 msec. Während dieses Halbbild-Intervalls, in dem die Verstärker-Gatesteuerung, die Sensorintegration und die Sensorauslesung erfolgen, wird ein ganzes leeres Video-Halbbild aus dem Einzelbildspeicher der Kamera ausgelesen. Die darauf folgenden Video-Halbbilder sind identische Darstellungen des eingefangenen Ereignisses, wie diese aus dem Einzelbildspeicher der Kamera ausgelesen werden. Während dieser Zeit wartet die Kamera auf ein Triggersignal, um ein neues Ereignis auszulösen, wobei sie den Dunkelstrom von dem CCD kontinuierlich löscht. Das nächste Triggersignal tritt immer nahe bei dem Anfang des Intervalls des vierten aufeinanderfolgenden Video-Halbbildes auf und der Zyklus wiederholt sich.
- In der FIGUR 6 ist ein schematisches Schaltbild des Video- Verarbeitungssystems wiedergegeben. Die RS170-Signale von den beiden verstärkten CCD-Kameras werden zuerst über monochrome Videomonitore (Kohu Modell 9029B/2R) geleitet, und dann auf zwei Eingänge des Videoumschalters gegeben. Die Ausgangssignale A und B des Videoumschalters Nummer 1 werden auf die zwei Eingänge des Video- Subtraktors & Schwellendetektors (Optical Electronics, Modell 67135-R) gegeben. Das Ausgangssignal dieses Video-Subtraktors ist ein monochromes RS170-Videosignal, das über den Eingang Nummer 3 des Videoumschalters Nummer 1 rückgekoppelt wird.
- Das Ausgangssignal C des Videoumschalters Nummer 1 wird auf einen Video-Analysator (Colorado Video, Modell 320) gegeben. Dieser Video- Analysator kann den Video-Intensitätspegel in einem Streifen über das Bild abtasten und diesen Querschnitt der Videointensität bei Überlagerung auf der linken Seite des Videos wiedergeben. Das Ausgangssignal dieses Video- Analysators wird auf den Eingang 4 des Videoumschalters Nummer 1 rückgekoppelt.
- Der Eingang Nummer 1 des Videoumschalters Nummer 2 erhält das Signal von dem Ausgang D des Videoumschalters Nummer 1, so daß jedes der vier Eingangssignale von dem Videoumschalter 1 nach dem Videoumschalter 2 weitergeleitet werden kann. Das heißt, das Kameravideo Nummer 1, das Kameravideo Nummer 2, das Video-Subtraktor-Ausgangssignal, oder das Video-Analysator-Ausgangssignal können nach dem Videoumschalter Nummer 2 weitergeleitet werden.
- Außerdem kann das Ausgangssignal des Video-Subtraktors nach dem Video-Analysator weitergeleitet werden. Der Video-Subtraktor ermöglicht, zunächst das Video-Eingangssignal B durch einen variablen Verstärkungsfaktor anzupassen, der von einem Viertel bis zu vier reicht. Danach subtrahiert er dieses angepaßte Videosignal B von dem Videosignal A, addiert ein Offset- Signal zu der Differenz, und multipliziert das Ergebnis mit einem Verstärkungsfaktor, der von eins bis zehn reicht. Das sich ergebende Ausgangssignal ist im wesentlichen die Differenz zwischen dem Video A und dem Video B, bei einigen Anpassungen zur Korrektur unterschiedlicher Kameraverstärkungen.
- Das Ausgangssignal A des Videoumschalters Nummer 2 wird nach einem Farbmonitor (Sony Modell PVM-1220) weitergeleitet. Das Ausgangssignal B des Videoumschalters Nummer 2 wird auf einen Video-Kolorisator (Colorado Video Modell 606G) gegeben. Das Ausgangssignal des Video-Kolorisators besteht aus vier Signalen, und zwar rot, grün, blau und Sync. Diese vier Signale werden auf einen RGB/NTSC-Wandler (Optical Electronics Modell 67132-R) gegeben. Dieses NTSC-Farb-Video-Ausgangssignal wird auf den Eingang 2 des Videoumschalters 2 rückgekoppelt.
- Das Ausgangssignal C des Videoumschalters Nummer 2 wird auf den Video-Cassettenrecoder (Sony Modell VO-5600) gegeben, und das Ausgangssignal des Video-Cassettenrecorders wird auf den Eingang Nummer 3 des Videoumschalters Nummer 2 rückgekoppelt. Das Ausgangssignal D des Videoumschalters 2 wird auf einen Videodrucker (Mitsubishi Modell P-70U) gegeben. Diese Ausrüstungen ermöglichen, eine Falschfarben-Darstellung der Kamera 1, der Kamera 2, oder der Differenz zwischen der Kamera 1 und der Kamera 2 zu erzeugen, und dieses kolorisierte Signal auf einem Videomonitor wiederzugeben und auf einem Video-Cassettenrecorder aufzuzeichnen. Der Video-Cassettenrecorder kann sowohl Monochrom-, als auch Farbsignale aufzeichnen. Der Videodrucker kann nicht in Farbe, sondern nur monochrom drucken.
- Die Verwendung von zwei Matrix-Video-Umschaltern ermöglicht, den Videoprozessor für Diagnosezwecke leicht zu rekonfigurieren, wozu beispielsweise nur eine Kamera betrachtet wird; oder, in dem Betriebsmodus, in dem das Signal die Differenz der Videos ist, die Differenz kolorisiert, wiedergegeben und aufgezeichnet wird.
- Schließlich enthält der Video-Subtraktor einen Schwellendetektor, der einen TTL-Sonalert-Alarm triggert und ein elektronisches Signal für externe Verwendung liefert, wenn ein Ziel eine bestimmte Intensitätsschwelle übersteigt. In der Praxis wird das Video-Differenzsignal, das das Ausgangssignal des Video-Subtraktors ist, kolorisiert und auf dem Video- Farbmonitor wiedergegeben, und der Schwellendetektor wird so eingestellt, daß Rauschen oder andere Fehler des Signals keine Triggerung hervorrufen. Der Schwellendetektor wird nur durch das wirkliche Ziel getriggert.
- Das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung kann wahlweise bestimmte kleine optische Filter, einschließlich Bandpaßfilter und Polarisationsfilter aufweisen. Bei dem System können zwei Kunden- Bandpaßfilter-Paare 32 verwendet werden. Das erste Paar wird in fotografischen 52 mm-Standard-Filterhaltern für 25 mm f/.85 Fujinon TV-Linsen angebracht. Das Sichtfeld dieser Linsen beträgt 200 für das halbe Feld. Die mittlere Wellenlänge und die Bandbreite dieser Filter betragen daher 537 nm bzw. 11,8 nm, um die Durchlässigkeit bei 532 nm über das volle Feld so gleichmäßig wie möglich zu machen, während die Bandbreite auf ein Minimum reduziert wird. Das zweite Bandpaßfilter-Paar 32 ist in speziellen Filterhaltern angebracht, die mit den f/1,0 Kowa-Linsen von 75 mm Brennweite verbunden sind. Die Filter haben einen Durchmesser von 3,5" und eine Dicke von 0,335". Die mittlere Wellenlänge und die Bandbreite dieser Filter sind 532,6 nm bzw. 1,4 nm, um die Durchlässigkeit bei 532 nm über das halbe Feld der Kowa- Linsen von 7º so gleichmäßig wie möglich zu machen.
- Es können auch zwei Polansationsfilter-Paare 34 verwendet werden. Das erste Paar sind fotografische 52 mm-Standard-Polarisationsfilter, die auf die 52 mm-Gewinde der Bandpaßfilter-Halterungen für die Fujinon-Linsen aufgeschraubt werden. Das zweite Polarisationsfilter-Paar 34 wird in 95 mm- Tippen-Standard-Polarisationsfilter-Halterungen angebracht. Diese Halterungen werden in die Bandpaßfilter-Halterungen der Kowa-Linsen eingeschraubt.
- Der Laser 10 wird vorzugsweise in Verbindung mit einer Abtastspiegeleinheit verwendet, um das Licht von einer horizontalen in eine vertikale Richtung umzulenken.
- Das LIDAR-Bilderzeugungssystem der vorliegenden Erfindung wurde in Ozeanwasser mit Erfolg getestet, und es wurde festgestellt, daß es zuverlässige Bilder von Unterwasserobjekten von einer fernen Position über dem Wasser aus liefert.
- Die vorliegende Erfindung wurde zwar unter Bezugnahme auf zwei CCD- Kameras beschrieben, aber bei einer weniger bevorzugten Ausführungsform kann nur eine einzige Kamera verwendet werden. Da jedoch bei einer einzigen Kamera das Hintergrundrauschen nicht durch Subtraktion eliminiert werden kann, ist das SRV bei dieser weniger bevorzugten Ausführungsform kleiner.
- Obwohl bevorzugte Ausführungsformen wiedergegeben und beschrieben wurden, können bei diesen Ausführungsformen verschiedene Änderungen und Ersetzungen vorgenommen werden. Daher gilt als vereinbart, daß die vorliegende Erfindung zur Veranschaulichung und nicht zur Begrenzung beschrieben wurde.
Claims (30)
1. Verfahren zum Nachweis und zur bildlichen Darstellung eines Objekts
welches von einem zurückstreuenden Medium umhüllt ist das zumindest
teilweise für Licht durchlässig ist, wobei dieses Verfahren die folgenden Schritte
umfaßt:
selektives Erzeugen von kurzen Lichtimpulsen,
Aussenden der kurzen Lichtimpulse zu dem zurückstreuenden Medium hin
und auf ein von dem Medium umhülltes Objekt,
Erfassen der von dem Objekt zurückreflektierten Lichtimpulse nach einer
zeitlichen Verzögerung, die der Laufzeit der Lichtimpulse bis zu dem Objekt
und wieder zurück entspricht, und
Umwandeln der erfaßten Lichtimpulse in ein Videobild des Objekts,
dadurch gekennzeichnet, daß der Schritt, bei dem die Lichtimpulse erfaßt
werden, weiterhin die folgenden Schritte aufweist:
Erfassen eines ersten Bildes des Objekts gegenüber dem von dem
zurückstreuenden Medium zurückgestreuten Licht,
Erfassen eines zweiten Bildes des Schattens des Objekts gegenüber dem
von dem zurückstreuenden Medium zurückgestreuten Licht, und
Subtrahieren des ersten Bildes von dem zweiten Bild, um die
Nachweisbarkeit und die bildliche Darstellung des Objekts zu verbessern.
2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, daß die kurzen
Impulse Impulsbreiten von weniger als ungefähr 10 Nanosekunden aufweisen.
3. Verfahren gemäß Anspruch 1 oder 2, dadurch gekennzeichnet, daß die
erzeugten Lichtimpulse expandiert werden, wozu sie durch eine optische
Vorrichtung geschickt werden.
4. Verfahren gemäß irgendeinem der Ansprüche 1 bis 3, dadurch
gekennzeichnet, daß das erste Bild von einer ersten Kamera aufgenommen
wird, und das zweite Bild von einer zweiten Kamera aufgenommen wird.
5. Verfahren gemäß irgendeinem der Ansprüche 1 bis 4, dadurch
gekennzeichnet, daß das subtrahierte Bild farblich dargestellt wird, um die
Identifizierung des Objekts zu erleichtern.
6. Verfahren gemäß irgendeinem der Ansprüche 1 bis 5, dadurch
gekennzeichnet, daß das Videobild auf einer Kathodenstrahlröhre
wiedergegeben wird.
7. Verfahren gemäß irgendeinem der Ansprüche 1 bis 6, dadurch
gekennzeichnet, daß die kurzen Lichtimpulse von einem gepulsten Laser
erzeugt werden.
8. Verfahren gemäß irgendeinem der Ansprüche 1 bis 7, dadurch
gekennzeichnet, daß der gepulste Laser einen gepulsten Nd:YAG-Laser
aufweist.
9. Verfahren gemäß irgendeinem der Ansprüche 1 bis 8, dadurch
gekennzeichnet, daß die erzeugten Lichtimpulse gefiltert werden.
10. Verfahren gemäß Anspruch 9, dadurch gekennzeichnet, daß
Bandpaßfilter verwendet werden, um die Lichtimpulse zu filtern.
11. Verfahren gemäß irgendeinem der Ansprüche 1 bis 10, dadurch
gekennzeichnet, daß das zurückstreuende Medium Wasser ist, wobei die
Lichtimpulse zu der Oberfläche des Wassers hin ausgesandt werden.
12. Verfahren gemäß Anspruch 11, dadurch gekennzeichnet, daß die
Lichtimpulse von einer Plattform eines Luftfahrzeugs ausgesandt werden.
13. Verfahren gemäß Anspruch 11 oder 12, dadurch gekennzeichnet, daß
ein von der Wasseroberfläche zurückgeworfener, glitzernder Lichtimpuls erfaßt
wird, wobei dieser zurückgeworfene, Scintillations-Lichtimpuls einem zu der
Oberfläche des Wassers hin ausgesandten Lichtimpuls entspricht, und daß
dieser von der Wasseroberfläche zurückgeworfene, Scintillations-Lichtimpuls
verwendet wird, um den Zeitpunkt für den Nachweis des unter der
Wasseroberfläche reflektierten Lichts einzustellen.
14. Verfahren gemäß irgendeinem der Ansprüche 1 bis 13, dadurch
gekennzeichnet, daß ein zurückgeworfener, glitzernder Lichtimpuls, der einem
ersten Lichtimpuls entspricht, durch eine Nachweisvorrichtung für Scintillations-
Lichtimpulse erfaßt wird, und daß das erste und das zweite Bild bei dem
nächsten Lichtimpuls durch eine Kameravorrichtung erfaßt werden.
15. Verfahren gemäß irgendeinem der Ansprüche 1 bis 13, dadurch
gekennzeichnet, daß die Lichtimpulse durch mindestens eine Kamera erfaßt
werden, die einen verstärkten CCD (Charge Coupled Device)-Sensor umfaßt.
16. Vorrichtung zum Nachweis und zur bildlichen Darstellung Objekts, das
von einem zurückstreuenden Medium umhüllt ist, das zumindest teilweise für
Licht durchlässig ist, aufweisend
eine Vorrichtung (10), um in selektiver Weise kurze Lichtimpulse zu
erzeugen,
eine Vorrichtung (12), um kurze Lichtimpulse zu dem zurückstreuenden
Medium (16) hin und auf ein von dem Medium (16) umhülltes Objekt (26)
auszusenden,
eine Vorrichtung (18, 20), um die von dem Objekt (26) zurückreflektierten
Lichtimpulse nach einer zeitlichen Verzögerung nachzuweisen, die der Laufzeit
der Lichtimpulse bis zu dem Objekt (26) und wieder zurück entspricht, und
eine Vorrichtung (28, 30), um die erfaßten Lichtimpulse in ein Videobild
des Objekts (26) umzuwandeln,
dadurch gekennzeichnet, daß die Vorrichtung zum Erfassen der
Lichtimpulse aufweist:
eine erste Bilderfassungsvorrichtung (18), um ein Bild des Objekts (26)
(erstes Bild) gegenüber dem von dem zurückstreuenden Medium (16)
zurückgestreuten Licht zu erfassen;
eine zweite Bilderfassungsvorrichtung (20), um ein Bild des Schattens des
Objekts (26) (zweites Bild) gegenüber dem von dem zurückstreuenden Medium
(16) zurückgestreuten Licht zu erfassen; und
eine Vorrichtung (28) zum Subtrahieren des ersten Bildes von dem zweiten
Bild, um die Nachweisbarkeit und die bildliche Darstellung des Objekts (26) zu
verbessern.
17. Vorrichtung gemäß Anspruch 16, dadurch gekennzeichnet, daß die
kurzen Impulse Impulsbreiten von weniger als ungefähr 10 Nanosekunden
aufweisen.
18. Vorrichtung gemäß Anspruch 16 oder 17, gekennzeichnet durch eine
Vorrichtung, um die erzeugten Lichtimpulse zu verbreitern, wozu diese
Lichtimpulse durch eine optische Vorrichtung (12) geschickt werden.
19. Vorrichtung gemäß Anspruch 16, 17 oder 18, dadurch gekennzeichnet,
daß die erste Bilderfassungsvorrichtung eine erste Kamera (18) aufweist, und
die zweite Bilderfassungsvorrichtung eine zweite Kamera (20) aufweist.
20. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 19,
gekennzeichnet durch eine Vorrichtung (28) zur farblichen Darstellung des
subtrahierten Bildes, um die Identifizierung des Objekts (26) zu erleichtern.
21. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 20
gekennzeichnet durch eine Kathodenstrahlröhre (30), um das Videobild optisch
wiederzugeben.
22. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 21, dadurch
gekennzeichnet, daß die Vorrichtung zum selektiven Erzeugen von kurzen
Lichtimpulsen einen gepulsten Laser (10) aufweist.
23. Vorrichtung gemäß Anspruch 22, wobei der gepulste Laser (10) einen
gepulsten Nd:YAG-Laser aufweist.
24. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 23, dadurch
gekennzeichnet, daß das zurückstreuende Medium (16) Wasser ist, wobei die
Lichtimpulse zu einer Oberfläche (14) des Wassers hin ausgesandt werden.
25. Vorrichtung gemäß irgendeinem der Ansprüche 1 bis 24,
gekennzeichnet durch einen Detektor für Scintillations-Lichtimpulse.
26. Vorrichtung gemäß Anspruch 25, dadurch gekennzeichnet, daß der
Detektor für Scintillations-Lichtimpulse einen Photodetektor und eine mit dem
Photodetektor betriebsfähig verbundene Diskriminatorschaltung aufweist.
27. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 25,
gekennzeichnet durch Filter (32, 34), um die erzeugten Lichtimpulse zu filtern.
28. Vorrichtung gemäß Anspruch 26, dadurch gekennzeichnet, daß die
Filter ein Bandpaßfilter (32) aufweisen.
29. Vorrichtung gemäß irgendeinem der Ansprüche 16 bis 28, dadurch
gekennzeichnet, daß die Bilderfassungsvorrichtung mindestens eine Kamera
(18, 20) aufweist, die einen verstärkten CCD (Charge Coupled Device)-Sensor
umfaßt.
30. Vorrichtung gemäß Anspruch 29, dadurch gekennzeichnet, daß die
Kamera weiterhin umfaßt:
ein Faseroptik-Fenster (48), und
eine Bildverstärker-Vorrichtung (50), wobei das Faseroptik-Fenster (48)
den CCD-Sensor (46) mit der Bildverstärker-Vorrichtung (50) koppelt, um den
verstärkten CCD-Sensor zu bilden.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/216,341 US4862257A (en) | 1988-07-07 | 1988-07-07 | Imaging lidar system |
PCT/US1989/002935 WO1990000848A1 (en) | 1988-07-07 | 1989-07-06 | Imaging lidar system |
Publications (2)
Publication Number | Publication Date |
---|---|
DE68920422D1 DE68920422D1 (de) | 1995-02-16 |
DE68920422T2 true DE68920422T2 (de) | 1995-05-11 |
Family
ID=22806665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE68920422T Expired - Fee Related DE68920422T2 (de) | 1988-07-07 | 1989-07-06 | Bildformungs-lidarsystem. |
Country Status (10)
Country | Link |
---|---|
US (1) | US4862257A (de) |
EP (1) | EP0378669B1 (de) |
JP (1) | JP2938912B2 (de) |
AT (1) | ATE116786T1 (de) |
AU (1) | AU3967189A (de) |
CA (1) | CA1334998C (de) |
DE (1) | DE68920422T2 (de) |
IL (1) | IL90906A (de) |
NZ (1) | NZ229855A (de) |
WO (1) | WO1990000848A1 (de) |
Families Citing this family (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB8811355D0 (en) * | 1988-05-13 | 1997-09-17 | Secr Defence | An electro-optical detection system |
US5013917A (en) * | 1988-07-07 | 1991-05-07 | Kaman Aerospace Corporation | Imaging lidar system using non-visible light |
IL89019A0 (en) * | 1989-01-20 | 1989-12-15 | Israel Aircraft Ind Ltd | Improved image intensifying system |
US5321030A (en) * | 1989-02-14 | 1994-06-14 | Amira, Inc. | Creatine analogs having antiviral activity |
US4988196A (en) * | 1989-04-17 | 1991-01-29 | Sperry Marine Inc. | Time domain Fraunhofer line discriminator |
US5045937A (en) * | 1989-08-25 | 1991-09-03 | Space Island Products & Services, Inc. | Geographical surveying using multiple cameras to obtain split-screen images with overlaid geographical coordinates |
US5200792A (en) * | 1989-08-31 | 1993-04-06 | Nec Corporation | Device for obtaining distance information from an object by instantaneously illuminating the object by a light beam |
US4964721A (en) * | 1989-10-12 | 1990-10-23 | Kaman Aerospace Corporation | Imaging lidar system |
US5034810A (en) * | 1989-12-07 | 1991-07-23 | Kaman Aerospace Corporation | Two wavelength in-situ imaging of solitary internal waves |
US5223986A (en) * | 1990-08-09 | 1993-06-29 | Kaman Aerospace Corporation | Radiation projecting device |
US5267329A (en) * | 1990-08-10 | 1993-11-30 | Kaman Aerospace Corporation | Process for automatically detecting and locating a target from a plurality of two dimensional images |
US5276632A (en) * | 1990-08-10 | 1994-01-04 | Kaman Aerospace Corporation | Method and apparatus for improved visual display of a target viewed by an imaging sensor device |
US5140416A (en) * | 1990-09-18 | 1992-08-18 | Texas Instruments Incorporated | System and method for fusing video imagery from multiple sources in real time |
US5343284A (en) * | 1990-10-24 | 1994-08-30 | Kaman Aerospace Corporation | Imaging lidar system employing bistatic operation |
US5181135A (en) * | 1990-12-21 | 1993-01-19 | Kaman Aerospace Corporation | Optical underwater communications systems employing tunable and fixed frequency laser transmitters |
US5164823A (en) * | 1990-12-21 | 1992-11-17 | Kaman Aerospace Corporation | Imaging lidar system employing multipulse single and multiple gating for single and stacked frames |
WO1992011541A1 (en) * | 1990-12-21 | 1992-07-09 | Huntron Instruments, Inc. | Image acquisition system for use with a printed circuit board test apparatus |
US5233415A (en) * | 1991-04-19 | 1993-08-03 | Kaman Aerospace Corporation | Imaging lidar employing transmitter referencing |
US5257085A (en) * | 1991-04-24 | 1993-10-26 | Kaman Aerospace Corporation | Spectrally dispersive imaging lidar system |
US5303084A (en) * | 1991-08-27 | 1994-04-12 | Kaman Aerospace Corporation | Laser light beam homogenizer and imaging lidar system incorporating same |
US5270780A (en) * | 1991-09-13 | 1993-12-14 | Science Applications International Corporation | Dual detector lidar system and method |
US5281826A (en) * | 1991-12-23 | 1994-01-25 | Electric Power Research Institute, Inc. | Video fluorescence monitor for determination of spill outlines |
US5446529A (en) * | 1992-03-23 | 1995-08-29 | Advanced Scientific Concepts, Inc. | 3D imaging underwater laser radar |
US5353054A (en) * | 1992-07-15 | 1994-10-04 | Geiger Michael B | Hands free lidar imaging system for divers |
US5506616A (en) * | 1992-10-07 | 1996-04-09 | The United States Of America As Represented By The Secretary Of The Navy | Differential imaging for sensitive pattern recognition |
US5379967A (en) * | 1993-04-30 | 1995-01-10 | State Of Israel Ministry Of Defense Armament Development Authority Rafael | Day/night optical guiding apparatus |
US5448936A (en) * | 1994-08-23 | 1995-09-12 | Hughes Aircraft Company | Destruction of underwater objects |
US5644386A (en) * | 1995-01-11 | 1997-07-01 | Loral Vought Systems Corp. | Visual recognition system for LADAR sensors |
US5790188A (en) * | 1995-09-07 | 1998-08-04 | Flight Landata, Inc. | Computer controlled, 3-CCD camera, airborne, variable interference filter imaging spectrometer system |
RU2089932C1 (ru) * | 1996-06-04 | 1997-09-10 | Йелстаун Корпорейшн Н.В. | Устройство для наблюдения объектов |
US6304289B1 (en) * | 1996-10-28 | 2001-10-16 | Director General Of The 1St District Port Construction Bureau, Ministry Of Transport | Submerged laser television and submerged laser visual recognizer |
US6963354B1 (en) | 1997-08-07 | 2005-11-08 | The United States Of America As Represented By The Secretary Of The Navy | High resolution imaging lidar for detecting submerged objects |
US6028624A (en) * | 1997-12-11 | 2000-02-22 | The United States Of America As Represented By The Secretary Of The Army | Method and apparatus for increased visibility through fog and other aerosols |
US6836285B1 (en) | 1999-09-03 | 2004-12-28 | Arete Associates | Lidar with streak-tube imaging,including hazard detection in marine applications; related optics |
FR2799002B1 (fr) * | 1999-09-28 | 2006-07-21 | Thomson Csf | Procede d'imagerie laser active |
US6414746B1 (en) * | 1999-11-24 | 2002-07-02 | Advanced Scientific Concepts, Inc. | 3-D imaging multiple target laser radar |
US7045783B2 (en) * | 2001-06-05 | 2006-05-16 | University Of Florida Research Foundation, Inc. | Device and method for object illumination and imaging using light pulses |
DE10210831A1 (de) * | 2002-03-12 | 2003-11-06 | Zeiss Carl | Optisches Bildaufnahme- und Bildauswertesystem |
ES2212733B1 (es) * | 2002-10-18 | 2005-05-01 | Jose Muñoz Leo | Sistema de visualizacion de imagenes del fondo marino. |
FR2858450B1 (fr) * | 2003-07-28 | 2005-11-11 | Vision Iq | Procede et systeme pour detecter un corps dans une zone situee a proximite d'une interface |
US7148974B1 (en) * | 2004-01-13 | 2006-12-12 | Sandia Corporation | Method for tracking the location of mobile agents using stand-off detection technique |
US7391561B2 (en) | 2005-07-29 | 2008-06-24 | Aculight Corporation | Fiber- or rod-based optical source featuring a large-core, rare-earth-doped photonic-crystal device for generation of high-power pulsed radiation and method |
US7430352B2 (en) | 2005-07-29 | 2008-09-30 | Aculight Corporation | Multi-segment photonic-crystal-rod waveguides for amplification of high-power pulsed optical radiation and associated method |
US7768700B1 (en) | 2006-11-30 | 2010-08-03 | Lockheed Martin Corporation | Method and apparatus for optical gain fiber having segments of differing core sizes |
USRE46672E1 (en) | 2006-07-13 | 2018-01-16 | Velodyne Lidar, Inc. | High definition LiDAR system |
EP2041515A4 (de) * | 2006-07-13 | 2009-11-11 | Velodyne Acoustics Inc | Hochauflösendes lidar-system |
US7916933B2 (en) * | 2007-01-18 | 2011-03-29 | Northrop Grumman Systems Corporation | Automatic target recognition system for detection and classification of objects in water |
US8179594B1 (en) | 2007-06-29 | 2012-05-15 | Lockheed Martin Corporation | Method and apparatus for spectral-beam combining of fanned-in laser beams with chromatic-dispersion compensation using a plurality of diffractive gratings |
JP2009276248A (ja) * | 2008-05-15 | 2009-11-26 | Mitsubishi Electric Corp | レーザレーダ装置 |
US8526110B1 (en) | 2009-02-17 | 2013-09-03 | Lockheed Martin Corporation | Spectral-beam combining for high-power fiber-ring-laser systems |
US8675181B2 (en) * | 2009-06-02 | 2014-03-18 | Velodyne Acoustics, Inc. | Color LiDAR scanner |
US8441718B2 (en) * | 2009-11-23 | 2013-05-14 | Lockheed Martin Corporation | Spectrally beam combined laser system and method at eye-safer wavelengths |
US8503840B2 (en) | 2010-08-23 | 2013-08-06 | Lockheed Martin Corporation | Optical-fiber array method and apparatus |
DE112011101288T5 (de) | 2010-04-12 | 2013-02-07 | Lockheed Martin Corporation | Strahldiagnostik- und Rückkopplungssystem sowie Verfahren für spektralstrahlkombinierteLaser |
EP3901653A3 (de) * | 2010-05-17 | 2022-03-02 | Velodyne Lidar USA, Inc. | Hochauflösendes lidar-system |
CN102103202B (zh) * | 2010-12-01 | 2013-01-09 | 武汉大学 | 一种融合影像的机载激光雷达数据半监督分类方法 |
CN102162861A (zh) * | 2010-12-07 | 2011-08-24 | 桂林电子科技大学 | 基于太赫兹成像探测水下目标的方法及装置 |
CN104470757B (zh) | 2012-07-09 | 2017-05-17 | 布莱特瓦维森有限公司 | 立体选通成像系统和方法 |
ITUD20120187A1 (it) * | 2012-11-07 | 2014-05-08 | Eidon Lab S C A R L | Apparecchiatura e procedimento di rilevazione per rilevare ostacoli alla navigazione per via d'acqua |
US9366872B2 (en) | 2014-02-18 | 2016-06-14 | Lockheed Martin Corporation | Apparatus and method for fiber-laser output-beam shaping for spectral beam combination |
GB201407267D0 (en) * | 2014-04-24 | 2014-06-11 | Cathx Res Ltd | Underwater surveys |
US9641781B2 (en) | 2015-03-30 | 2017-05-02 | Hamilton Sundstrand Corporation | Imaging circuit including frame asynchronous pulse detection |
US10627490B2 (en) | 2016-01-31 | 2020-04-21 | Velodyne Lidar, Inc. | Multiple pulse, LIDAR based 3-D imaging |
WO2017164989A1 (en) | 2016-03-19 | 2017-09-28 | Velodyne Lidar, Inc. | Integrated illumination and detection for lidar based 3-d imaging |
US10393877B2 (en) | 2016-06-01 | 2019-08-27 | Velodyne Lidar, Inc. | Multiple pixel scanning LIDAR |
US9702819B1 (en) * | 2016-06-22 | 2017-07-11 | The United States Of America As Represented By The Secretary Of The Navy | Surface vessel wake detection |
US10386465B2 (en) | 2017-03-31 | 2019-08-20 | Velodyne Lidar, Inc. | Integrated LIDAR illumination power control |
CN115575928A (zh) | 2017-05-08 | 2023-01-06 | 威力登激光雷达美国有限公司 | Lidar数据获取与控制 |
US11294041B2 (en) | 2017-12-08 | 2022-04-05 | Velodyne Lidar Usa, Inc. | Systems and methods for improving detection of a return signal in a light ranging and detection system |
US11971507B2 (en) | 2018-08-24 | 2024-04-30 | Velodyne Lidar Usa, Inc. | Systems and methods for mitigating optical crosstalk in a light ranging and detection system |
US10712434B2 (en) | 2018-09-18 | 2020-07-14 | Velodyne Lidar, Inc. | Multi-channel LIDAR illumination driver |
US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
CN109782294B (zh) * | 2018-12-26 | 2021-09-17 | 中国科学院长春光学精密机械与物理研究所 | 一种智能化光学观测系统 |
US12061263B2 (en) | 2019-01-07 | 2024-08-13 | Velodyne Lidar Usa, Inc. | Systems and methods for a configurable sensor system |
US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
CN109709574B (zh) * | 2019-01-09 | 2021-10-26 | 国家海洋局第一海洋研究所 | 一种海底微地形激光扫描成像系统及三维地形重建方法 |
US10613203B1 (en) | 2019-07-01 | 2020-04-07 | Velodyne Lidar, Inc. | Interference mitigation for light detection and ranging |
US11556000B1 (en) | 2019-08-22 | 2023-01-17 | Red Creamery Llc | Distally-actuated scanning mirror |
US11789128B2 (en) * | 2021-03-01 | 2023-10-17 | Innovusion, Inc. | Fiber-based transmitter and receiver channels of light detection and ranging systems |
US11614521B2 (en) | 2021-04-21 | 2023-03-28 | Innovusion, Inc. | LiDAR scanner with pivot prism and mirror |
GB2609044B (en) * | 2021-07-20 | 2024-09-25 | Thales Holdings Uk Plc | Detecting an object in a turbid medium |
EP4198571A1 (de) * | 2021-12-17 | 2023-06-21 | BAE SYSTEMS plc | Unterwasserabbildung |
WO2023111519A1 (en) * | 2021-12-17 | 2023-06-22 | Bae Systems Plc | Underwater imaging |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2541374A (en) * | 1946-06-28 | 1951-02-13 | Rca Corp | Velocity-selection-type pickup tube |
US3426207A (en) * | 1964-06-17 | 1969-02-04 | North American Rockwell | Focused optical heterodyne system |
US3467773A (en) * | 1966-11-07 | 1969-09-16 | Us Navy | Television monitoring system for penetrating a light backscattering medium |
US3566021A (en) * | 1968-11-29 | 1971-02-23 | Bell Telephone Labor Inc | Real time three dimensional television system |
GB1249722A (en) * | 1969-01-14 | 1971-10-13 | Hughes Aircraft Co | Line scanning system |
US3670098A (en) * | 1970-03-09 | 1972-06-13 | Zenith Radio Corp | Optical scanning apparatus |
US3673325A (en) * | 1970-04-10 | 1972-06-27 | Hoffrel Instr Inc | Cathode ray tube display system for ultrasonic and radar echo signals |
GB1262416A (en) * | 1970-06-30 | 1972-02-02 | Standard Telephones Cables Ltd | Range-gated vision system |
US3895388A (en) * | 1973-10-25 | 1975-07-15 | Ibm | Adaptive illuminator |
US3947119A (en) * | 1974-02-04 | 1976-03-30 | Ball Brothers Research Corporation | Active sensor automatic range sweep technique |
US4030831A (en) * | 1976-03-22 | 1977-06-21 | The United States Of America As Represented By The Secretary Of The Navy | Phase detector for optical figure sensing |
US4277167A (en) * | 1976-08-25 | 1981-07-07 | The United States Of America As Represented By The Secretary Of The Navy | Depth mapping system |
US4143400A (en) * | 1977-03-03 | 1979-03-06 | The United States Of America As Represented By The Secretary Of The Navy | Real-time optical mapping system |
US4195311A (en) * | 1978-08-28 | 1980-03-25 | The United States Of America As Represented By The Secretary Of The Navy | Coherence length gated optical imaging system |
US4174524A (en) * | 1978-09-25 | 1979-11-13 | The United States Of America As Represented By The Secretary Of The Navy | Ultra high speed gated pulse optical imaging system |
US4696140A (en) * | 1983-01-03 | 1987-09-29 | Marshall Robert H | Connector guide system for construction walls |
IL72878A (en) * | 1984-09-06 | 1988-10-31 | Tadiran Ltd | Reconnaissance system |
GB2164816B (en) * | 1984-09-25 | 1988-06-29 | English Electric Valve Co Ltd | Television cameras |
US4707128A (en) * | 1984-12-31 | 1987-11-17 | Subsea Engineering Associates, Inc. | Turbid media viewing system |
-
1988
- 1988-07-07 US US07/216,341 patent/US4862257A/en not_active Expired - Lifetime
-
1989
- 1989-07-06 EP EP89908570A patent/EP0378669B1/de not_active Expired - Lifetime
- 1989-07-06 JP JP1508046A patent/JP2938912B2/ja not_active Expired - Lifetime
- 1989-07-06 NZ NZ229855A patent/NZ229855A/en unknown
- 1989-07-06 CA CA000604934A patent/CA1334998C/en not_active Expired - Fee Related
- 1989-07-06 WO PCT/US1989/002935 patent/WO1990000848A1/en active IP Right Grant
- 1989-07-06 AT AT89908570T patent/ATE116786T1/de active
- 1989-07-06 DE DE68920422T patent/DE68920422T2/de not_active Expired - Fee Related
- 1989-07-06 AU AU39671/89A patent/AU3967189A/en not_active Abandoned
- 1989-07-07 IL IL90906A patent/IL90906A/xx not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
IL90906A (en) | 1993-03-15 |
ATE116786T1 (de) | 1995-01-15 |
EP0378669A1 (de) | 1990-07-25 |
US4862257A (en) | 1989-08-29 |
JP2938912B2 (ja) | 1999-08-25 |
WO1990000848A1 (en) | 1990-01-25 |
DE68920422D1 (de) | 1995-02-16 |
AU3967189A (en) | 1990-02-05 |
CA1334998C (en) | 1995-03-28 |
EP0378669A4 (en) | 1991-04-10 |
JPH03501413A (ja) | 1991-03-28 |
NZ229855A (en) | 1991-09-25 |
EP0378669B1 (de) | 1995-01-04 |
IL90906A0 (en) | 1990-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE68920422T2 (de) | Bildformungs-lidarsystem. | |
CA1332978C (en) | Imaging lidar system using non-visible light | |
DE69635891T2 (de) | Verbesserte optische kamera zur entfernungsmessung | |
DE3329590C2 (de) | Verfahren und Vorrichtung zur Harmonisierung mehrerer optisch/optronischer Achsen einer Zieleinrichtung auf eine gemeinsame Bezugsachse | |
US4963024A (en) | Method and apparatus for determining K factor | |
DE102017115710A1 (de) | LIDAR-Anordnung und LIDAR-Verfahren | |
US5034810A (en) | Two wavelength in-situ imaging of solitary internal waves | |
DE3404396C2 (de) | ||
DE60125683T2 (de) | Anordnung und Verfahren zur Entfernungsmessung | |
DE2618400A1 (de) | Ueberwachungsanordnung | |
DE2717749A1 (de) | Lasergestuetztes ueberwachungssystem | |
EP1470434A2 (de) | Tiefenerfassende bildgebende vorrichtung | |
DE4129912C1 (de) | ||
US5519209A (en) | High range resolution active imaging system using a high speed shutter and a light pulse having a sharp edge | |
DE1287111B (de) | Elektro-optische Abbildungseinrichtung | |
DE1274365B (de) | Verfahren und Einrichtung zur Darstellung und/oder Aufzeichnung des gleichzeitigen Verlaufes der waehrend eines sehr kurzen Zeitintervalls auftretenden Intensitaetsaenderung an mehreren Punkten einer linienfoermigen Strahlungsquelle | |
DE1537952B2 (de) | Verfahren und Vorrichtung zur Erzeugung des Abbildes einer Szene | |
Witherspoon et al. | Feasibility testing of a range-gated laser-illuminated underwater imaging system | |
DE2607169A1 (de) | Verfahren und messanordnung zur bestimmung des konzentrationsprofils von luftverunreinigungen oder natuerlichen bestandteilen in der atmosphaere | |
DE2940536C2 (de) | Anordnung zur Aufnahme eines Wärmebildes | |
DE3506088A1 (de) | Optisches system zum empfang von waerme- und laserstrahlung | |
DE2150969C3 (de) | Vorrichtung zum Erfassen meteorologischer Zustände | |
DE2150969B2 (de) | Vorrichtung zum Erfassen meterologischer Zustände |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |