DE4439298A1 - 3D-Kamera nach Laufzeitverfahren - Google Patents

3D-Kamera nach Laufzeitverfahren

Info

Publication number
DE4439298A1
DE4439298A1 DE4439298A DE4439298A DE4439298A1 DE 4439298 A1 DE4439298 A1 DE 4439298A1 DE 4439298 A DE4439298 A DE 4439298A DE 4439298 A DE4439298 A DE 4439298A DE 4439298 A1 DE4439298 A1 DE 4439298A1
Authority
DE
Germany
Prior art keywords
camera according
light
polarization
intensity
modulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE4439298A
Other languages
English (en)
Inventor
Rudolf Prof Dr Ing Schwarte
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE4439298A priority Critical patent/DE4439298A1/de
Publication of DE4439298A1 publication Critical patent/DE4439298A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/499Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using polarisation effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Description

Die Erfindung betrifft eine 3D-Kamera nach dem Laufzeitverfahren entsprechend dem Oberbegriff des Patentanspruchs 1.
Derartige 3D-Meßgeräte gehen heute zumeist von eindimensionalen Entfernungsmeßgeräten aus, die auf dem Prinzip basieren, daß bei bekannter Laufzeit eines Meßsignals durch ein Medium und gleichzeitig bekannter Ausbreitungsgeschwindigkeit des Meßsignals in diesem Medium sich die Entfernung als Produkt von Laufzeit und Ausbreitungsgeschwindigkeit ergibt. Im vorliegenden Fall wird das Meßsignal von elektromagnetischen Wellen, vorzugsweise von Lichtwellen, gebildet. Breiten sich die Lichtwellen in einem homogenen Medium, z. B. Luft oder Wasser aus, so ist die Entfernungsbestimmung bei Kenntnis der Laufzeit ohne weiteres möglich, wenn die Ausbreitungsgeschwindigkeit von Lichtwellen in dem homogenen Medium berücksichtigt wird.
Um die 3D-Vermessung einer 3D-Szene zu erreichen, wird der Meßstrahl des 1D-Meßgerätes i. allg. durch einen Spiegelscanner auf einzelne Punkte der 3D-Szene gelenkt.
Dabei liegt eine wesentliche Problematik der Entfernungsmessung nach dem Laufzeitprinzip unter Verwendung von Lichtwellen in der extrem hohen Ausbreitungsgeschwindigkeit von 300.000 km/s, die eine extrem hoch aufgelöste Messung der Laufzeit erforderlich macht. Zum Beispiel ist für eine Meßgenauigkeit im mm-Bereich eine Zeitauflösung von einigen 10-12 s erforderlich. Um eine derart hoch aufgelöste Zeitmessung zumindest annähernd zu erreichen, sind in der Vergangenheit verschiedene Verfahren vorgeschlagen worden. Diese Verfahren lassen sich im wesentlichen in zwei Entwicklungsrichtungen unterscheiden; einerseits das Phasenlaufzeitverfahren andererseits das Pulslaufzeitverfahren.
Mit Entfernungsmeßgeräten, die nach dem Phasenlaufzeitverfahren arbeiten, werden heute die höchsten Meßgenauigkeiten erzielt. Beim Phasenlaufzeitverfahren wird die Amplitude der Lichtwelle mit einer Frequenz im Hochfrequenzbereich moduliert. Die Laufzeitbestimmung des Meßsignals erfolgt nun aus dem Phasenvergleich der Modulation der ausgesandten Lichtwelle mit der Modulation der einlaufenden Lichtwelle, d. h. aus der Phasenlaufzeit vom Aussenden bis zum Empfangen des Lichts. Dabei wird die Modulationsfrequenz so gewählt, daß die Modulationswellenlänge - also nicht die Lichtwellenlänge - in einem Bereich liegt, der zumindest größenordnungsmäßig dem Bereich der zu messenden Entfernung entspricht. Da bei Phasenlaufzeitmessungen grundsätzlich das Problem der Mehrdeutigkeit bzgl. 2π besteht, und dieser Meßbereich bzw. die Modulationsfrequenz bei vielen Anwendungen nicht genügend eingeschränkt werden können, werden zwei oder mehrere Modulationsfrequenzen nacheinander gewählt.
3D-Kameras, die nach diesem Prinzip der 1D-Laufzeitmessung und einem zusätzlichen 2D- Scanner arbeiten, sind sehr aufwendig und langsam. Derartige Geräte dienen dazu, räumliche Objekte geometrisch zu vermessen. Herkömmliche 2D-Kameras liefern uns nur ein zweidimensionales Bild, das eine Projektion des dreidimensionalen Bildes darstellt. Dringend benötigt werden heute 3D-Meßgeräte für die schnelle und berührungslose Vermessung von Formen, Gegenständen und Abmessungen in industriellen Fertigungsprozessen, für weitere Schritte zur Automatisierung und vor allem zur integrierten 100%-Qualitätsüberwachung sowie für Sicherheitsaufgaben, Raumüberwachung, Navigationsaufgaben und Roboterhandhabung. Es sind somit 3D-Objekte sehr unterschiedlicher Größe in Meßvolumina von etwa (0,1 m)³ bis über (10 m)³ schnell und präzise zu vermessen. Zusätzlich ist oft die Farbinformation erforderlich.
Die auf dem Markt erhältlichen 3D-Meßgeräte arbeiten
  • 1. nach dem Puls- oder Phasenlaufzeitverfahren. Die Tiefeninformation wird über die Puls- bzw. Phasenlaufzeit des zum Meßobjekt gesendeten und von diesem reflektierten Licht gewonnen. Bisher existieren Geräte nach diesem Verfahren auf der Basis eines eindimensionalen Laufzeitsystems, das über einen zusätzlichem 2D-Spiegelscanner den gewünschten Raumwinkel abscannt. Der Preis eines solchen Gerätes, z. B. der Fa. Stiefelmeyer, Esslingen, beträgt ca. 230.0000 DM.
  • 2. mittels Interferometrie, d. h. unter Ausnutzung der Interferenz von Lichtwellen. Dabei ist ein Mindestmaß an Kohärenz des interferierenden Lichts und eine gewisse Glätte der Oberfläche erforderlich. Für die aufgeführten Aufgaben kommen derartige Geräte trotz der absoluten Meßeigenschaften neuerer Mehrfrequenzinterferometerverfahren heute aufgrund der Komplexität und Empfindlichkeit des Aufbaus sowie der Kosten und der Speckleprobleme nicht allgemein in Frage.
  • 3. nach dem Triangulationsprinzip, insbesondere bildgebende Triangulationsverfahren mittels strukturierter Beleuchtung. Derartige Geräte bieten heute die besten Leistungen bzgl. der o.a. Aufgabenstellungen. Die Tiefeninformationen werden aus der Geometrie der Anordnung des Empfängers, des optischen Basisabstandes zur Beleuchtungsquelle und der Lichtstruktur auf dem Objekt berechnet. Nachteile liegen jedoch in folgenden prinzipiellen Meßeigenschaften:
    Für Absolutmessungen komplexer Objekte ist es notwendig, mehrere Lichtstrukturen nacheinander auszuwerten, wobei das Objekt in Ruhe sein muß. Der entsprechend Zeitaufwand liegt im Sekundenbereich.
    Ferner führt das sog. Triangulationsdreieck zu optischen Abschattungen. Die Flexibilität ist durch die optische Basis stark eingegrenzt, da der sinnvolle Meßbereich in der Größenordnung der optischen Basis liegt.
Das Laufzeitverfahren bietet an sich die größte Flexibilität der drei möglichen Verfahren, da jeder zu vermessende, reflektierende Bildpunkt einer 3D-Szene direkt durch den gesendeten und reflektierten Lichtstrahl erreicht wird und die Laufzeit proportional dem Abstand von Sender und Empfänger ist.
Das Hauptproblem besteht bei Laufzeitverfahren darin, eine hochpräzise Referenzmessung zu realisieren, da die Zeitdrift elektronischer Komponenten i.a. im ns-Bereich liegt, während eine Entfernungsauflösung von 1 mm entsprechend der Lichtlaufzeit für Hin- und Rückweg 6,6 · 10-12 Sekunden, d. h. 6,6 ps benötigt.
Dieses Problem wird auch nicht durch das Konzept einer 3D-Kamera gelöst, bei der die Laufzeit durch Modulation der Verstärkung eines Bildverstärkers mit dem Modulationssignal des Senders ermittelt wird. Diese Modulation des elektronischen Verstärkers ist mit Jitter- und Laufzeitdrifteffekten verbunden, die eine Millimeter- oder Submillimetergenauigkeit nicht erlauben.
Das Ziel der vorliegenden Erfindung besteht darin, eine 3D-Kamera der eingangs genannten Art zu schaffen, die die elektronische Zeitdrift der bekannten Geräte und Verfahren überwindet und damit wesentlich höhere Genauigkeiten erreicht, die außerdem kompakt aufgebaut werden kann, die Hunderttausende von Raumpunkten parallel in kürzerer Zeit, als bisher möglich, vermessen kann, die sowohl dreidimensionale Grauwertbilder als auch 3D-Farbwertbilder zu liefern vermag, die flexibel an das gewünschte Meßvolumen allein durch synchrone Einstellung der Sende- und Empfangsoptik, ebenso flexibel an die gewünschte Genauigkeit oder Schnelligkeit der 3D- Bildfolge angepaßt werden kann und die durch Verwendung möglichst weniger und gleichartiger Komponenten wirtschaftlich zu fertigen ist.
Zur Lösung dieser Aufgabe sieht die Erfindung vor, daß der Sender intensitätsmodulierte Lichtwellen mindestens eines Spektralbereichs, jedoch vorzugsweise von drei, den Farben rot, grün und blau entsprechenden Spektralbereichen aussendet und die von der 3D-Szene 13 in den Empfänger 23 reflektierten Lichtwellen vorzugsweise durch vorgeschaltete Bandfilter 17 spektral getrennt über mindestens einen Intensitätsmodulator 22 wahlweise von mindestens einem spektral zugehörigen 2D-Empfangselement 25, vorzugsweise einem Mehrfarben-CCD-Chip, pixelweise in elektrische Signale umgewandelt werden, aus denen mittels der Auswerteeinheit 26 dreidimensionale Grauwertbilder oder vorzugsweise dreidimensionale Farbbilder rekonstruiert werden und daß dabei die Lichtquelle 2 des Senders 9 zumindest zeitweilig Licht konstanter Intensität aussendet, das durch einen nachgeschalteten optischen Intensitätsmodulator 8 moduliert wird, wobei die empfangenen Lichtwellen durch den dem 2D-Empfangselement 25 vorgeschalteten optischen Intensitätsmodulator 22, der möglichst gleichartig zum sendeseitigen Intensitätsmodulator 8 ausgelegt und betrieben wird, demoduliert werden, und wobei beide Intensitätsmodulatoren 8 und 22 durch das gleiche Modulationssignal oder durch das bis auf einen durch ein steuerbares Verzögerungsglied 28 verursachten Zeitversatz gleiche Modulationssignal vorzugsweise wahlweise in Form einer Sinusschwingung im MHz bis GHz-Bereich oder in Form von Nadelimpulsen im ps- bis ns-Bereich angesteuert wird.
Der Hauptvorteil des vorgeschlagenen Verfahrens liegt erfindungsgemäß in der Eigenschaft, daß zur pixelweisen Laufzeitbestimmung keine elektronischen Drifterscheinungen auftreten, da sende- und empfangsseitig mit dem gleichen Modulationssignal und gleichartigen Intensitätsmodulatoren 8 und 22 nur optisch parallel moduliert und demoduliert wird wahlweise mit oder ohne gegenseitige Zeitverschiebung dieser beiden Modulationssignale durch die Verzögerungseinheit 28, die z. B. als reines Laufzeitglied realisiert werden kann und da die nachfolgende Signalverarbeitung der Pixelamplituden von diesem Echtzeitmeßvorgang prinzipiell entkoppelt ist.
Damit kann erstmals mit Hilfe des Laufzeitverfahrens eine Auflösung und Genauigkeit erreicht werden, die in die Größenordnung interferometrischer Verfahren gelangt.
Die Interferometerie beruht im Prinzip auch auf Laufzeiteffekten, nur mit dem Unterschied, daß Referenzen grundsätzlich optischer Art und auf eine gewisse Kohärenz angewiesen sind.
Hinzukommt erfindungsgemäß die Möglichkeit, für hochpräzise Absolutmessungen zwischen Sender und Empfänger eine optische Referenzstrecke einzufügen, die vorzugsweise aus mehreren abgestuften Lichtleitfasern besteht und systematisch bestimmten Pixeln des 2D-Empfangselements optisch zugeordnet ist und keine Zeitdriftfehler verursacht. Auf diese Weise wird eine Kalibrierung der 3D-Aufnahme in allen drei Dimensionen realisiert.
Ein weiterer entscheidender Vorteil ist die Schnelligkeit der 3D-Bildaufnahme.
Die heute käuflichen CCD-Elemente detektieren 50 bis 250 Bilder pro Sekunde. Da zur Berechnung eines 3D-Bildes drei bis fünf 2D-Intensitätsbilder erforderlich sind, können mehr als zehn 3D-Bilder pro Sekunde gewonnen werden. Das bedeutet, daß mehr als 10 vollständige 3D- Bilder mit Hunderttausenden von Raumpunkten bzw. Voxel inklusive der Grauwertinformation oder - bei dreifacher Anwendung des Verfahrens z. B. für rot, grün und blau in einer entsprechenden 3D-Farbkamera - 10 vollständige 3D-Farbbilder pro Sekunde ermittelt werden.
Ein großer Vorteil gegenüber bisherigen Konzepten ist die Flexibilität bezüglich unterschiedlicher Abstände und Meßvolumina. Im gleichen Meßsystem kann durch synchrone Änderung der Sende- und Empfangsoptik z. B. durch ZOOM-Funktionen die 3D-Vermessung der Objektgröße angepaßt werden.
Der Mehraufwand des vorgeschlagenen Systems beträgt dabei weit weniger, als der dreifache Aufwand, bietet aber ein Vielfaches an Meßsicherheit und Information, da das gültige 3D-Farbbild durch die redundante Vereinigung der drei auf z. B. rot, grün und blau beruhenden 3D- Einzelfarbbilder rekonstruiert werden kann.
Fig. 1 zeigt ein vereinfachtes Blockschaltbild einer 3D-Farbkamera. Sie enthält vor allem
  • - einen optischen Sender 9, der eine 3D-Szene 13 mit z. B. drei Wellenlängen λ1, λ₂ und λ₃ beleuchtet,
  • - einen Modulationsgenerator 1, der gleichermaßen den Sender 9 als auch den Empfänger 23 moduliert,
  • - einen Empfänger 23, der das reflektierte Streulicht der 3D-Szene 13 empfängt,
  • - eine Auswerteeinheit 26, die z. B. die aus mindestens drei empfangenen Intensitätsbildern für verschiedene Modulationsfrequenzen des Modulationsgenerators 1 und für verschiedene Laufzeitunterschiede bei sinusförmigen oder impulsförmigen Modulationssignalen auswertet, sowie eine
  • - Ablaufsteuerung, die den gesamten Meßvorgang zeitlich steuert und erfindungsgemäß in der Lage ist, über die Verbindung 36 optimal bzw. in gewünschter Weise auf das Meßergebnis zu reagieren.
Erfindungsgemäß wird auf der Sendeseite mindestens eine Lichtquelle 2 mit vorzugsweise konstanter Intensität und einer relativen spektralen Halbwertsbreite von z. B. 5-10% verwendet.
In Fig. 1 ist eine Ausführung mit drei derartigen Einzellichtquellen 2a, 2b und 2c dargestellt, die erfindungsgemäß unterschiedliche Spektralbereiche mit den Mittenwellenlängen λ₁, λ₂, λ₃ z. B. für rot, grün und blau liefern.
Das Licht der wahlweise ein- oder mehrfachen Lichtquelle 2 wird durch mindestens einen zweidimensionalen optischen Sende-Intensitätsmodulator 9, dessen Transmission nach Maßgabe des vom Modulationsgenerator 1 gelieferten Modulationssignals in der Intensität moduliert und über eine geeignete, in Fig. 1 nicht dargestellte Optik, als intensitätsmodulierte, ein- oder mehrfarbige Lichtwelle in Form von Sinusschwingungen 12 oder Nadelimpulsen 11 auf die zu vermessende 3D-Szene 13 gesendet.
Der Empfänger 23 ist mit seiner Optik, in Fig. 1 ebenfalls nicht ausgeführt, auf den gleichen, vom Sender 9 beleuchteten Bereich der 3D-Szene 13 ausgerichtet und empfängt den Teil des in Richtung des Empfängers reflektierten Lichts. Diese reflektierten Lichtwellen 14 bzw. 15 enthalten die räumlichen Entfernungsinformationen der 3D-Szene im Fall der Sinusmodulation in den Phasenlaufzeiten und im Fall der Nadelimpulsmodulation in den Pulslaufzeiten. Zur driftfreien Ermittlung dieser Laufzeiten wird das empfangene Licht getrennt durch spektrale Bandfilter z. B. 17a, 17b und 17c entsprechend der Zahl der gesendeten Spektralbereiche entweder auf einen gemeinsamen oder den Spektralbereichen entsprechend zugeordneten Empfangs-Intensitätsmodulatoren z. B. 22a, 22b und 22c geführt, wobei dieser ein- oder mehrfache Empfangs-Intensitätsmodulator 22 erfindungsgemäß durch das gleiche bzw. durch das um eine Laufzeit τ zeitversetzte Modulationssignal wie der Sende-Intensitätsmodulator 8 moduliert wird.
Höchste Reichweiten bzw. Empfindlichkeiten werden mit der erfindungsgemäßen 3D-Kamera dadurch erreicht, daß die Ablaufsteuerung 27 in der strichlierten Stellung des Schalters 29 einerseits über die gesteuerte Phaseneinheit 28 eine binäre Phasenumtastung, daß heißt Phasenänderungen von 0° und 180° zusätzlich zu einer Grundphasenverschiebung für das Sende- Modulationssignal nach vorzugsweise einem pseudobinären Zufallscode bewirkt, während das Empfangs-Modulationssignal unbeeinflußt bleibt, und andererseits die Auswerteeinheit über die Verbindung 31 und/oder das Empfangselement 25 so steuert, daß die Intensitätsamplituden pixelweise entsprechend diesem Pseudozufallscode positiv bzw. negativ gewichtet und über mehrere Perioden dieses Codes aufintegriert werden.
Die vorgeschlagene 3D-Kamera bietet erstmals eine technisch realisierbare Möglichkeit, 3D- Farbbilder zu liefern. Bisher sind keine derartigen Geräte oder Verfahren bekannt geworden.
Durch die Multiplikation des mit dem sendeseitigen Modulationssignal intensitätsmodulierten und durch die 3D-Szene und wahlweise bei der strichlierten Stellung des Schalters 29 durch die Verzögerungseinheit verzögert empfangenen Lichts mit dem gleichen Modulationssignal im Empfangs-Intensitätsmodulator 22 entsteht eine mittlere Lichtintensität, die in einem festen Zusammenhang von der Laufzeit- bzw. Phasenbeziehung beider Signale am Ort des Empfangs- Intensitätsmodulators 22 abhängt.
Diese Mittelwertbildung dieser sendeseitig und empfangsseitig modulierten Lichtintensität erfolgt pixelweise durch Integration auf mindestens einem 2D-Empfangselement 25, das im Falle von z. B. drei Spektralbereichen des Sendelichts ein Dreifarben-CCD-Chip enthalten kann oder durch drei den Spektralbereichen zugeordneten 2D-Empfangselementen 25a, 25b und 25c realisiert wird.
Für sinusförmige Modulationssignale entsteht bei diesem pixelweise homodynen Mischverfahren am Ort des Empfangs-Intensitätsmodulators 22 eine Art Interferenzbild bzw. Interferogramm, das als Ladungsbild auf dem 2D-Empfangselement abgebildet und ausgelesen wird.
Durch mindestens drei verschiedene Messungen einer Pixelamplitude bei der gleichen 3D-Szene z. B. durch 3 verschiedene Frequenzen des Modulationsgenerators 1 oder durch drei verschiedene Phasenlaufzeiten bzw. Phasenwinkel durch die Verzögerungseinheit 28 kann bekanntlich die Pixelphase und damit der zugehörige gesuchte Entfernungswert ermittelt werden. Der Mittelwert bzw. Gleichanteil einer z. B. mit einem CCD-Pixel gemessenen Lichtintensität ICCD0 ergibt sich aus dem Intensitätsverlauf ICCD(t) wie folgt:
mit:
K = Konstante
ω = Modulationskreisfrequenz
ϕ = Phasenlaufzeit des Pixelsignals
T(t) = Transmissionsfaktor des sinusförmig modulierten Intensitätsmodulators 8 bzw. 22 mit Mittelwert T₀ und Modulation Tm
E(t) = Empfangsintensität des Pixels mit Mittelwert E₀ und Wechselanteil Em
Der Mittelwert bzw. Gleichanteil ICCD0 hängt danach wie folgt von der Phase ϕ ab:
ICCD₀ = K(T₀E₀+TmEmcosϕ).
Bezogen auf die gesamte xy-Ebene z. B. eines CCD-Chips ergibt sich - hier nicht durch Überlagerung sondern durch multiplikative Mischung - eine Art Interferogramm der üblichen Form:
ICCD0(x,y) = I₀(x,y)+Im(x,y)cosϕ.
Unbekannt in dieser Gleichung sind die drei Größen als Gleichanteil bzw. Grundhelligkeit, Im als Wechselanteil bzw. Kontrast sowie ϕ = 2πfT = ωT als Phasendifferenz zwischen dem Modulationssignal und dem Empfangssignal. T ist die gesuchte Phasenlaufzeit. Durch 3 Messungen für verschiedene Frequenzen oder Phasen können alle drei Größen ermittelt werden, z. B. f = f₁, f₂ und f₃:
ICCD01 = I₀ + Imcos2πf₁T, ICCD02 =I₀+Im cos2πf₂T, ICCD03=I₀+Imcos²πf₃T
oder durch zusätzliche Phasenverschiebungen ϕz die gemäß Bild 1 durch den Schalter 29 in der strichlierten Stellung realisierbar sind:
ϕz = 2πfτ; mit τ = τ₁, τ = τ₂ und τ = τ₃ ergeben sich wiederum drei Bestimmungsgleichungen
ICCD01 =I₀ + Im cos(2πfT + 2πfτ₁),
ICCD02 =I₀ + Im cos(2πfT + 2πfτ₂),
ICCD03 = I₀ + Im cos(2πfT + 2πfτ₃).
Dieses letztere Verfahren ist in der Interferometrie und auch in der Triangulation mit strukturiertem Licht unter dem Namen "Phasenshiftverfahren" weit verbreitet und wird durch schnelle Algorithmen ausgewertet.
In der Praxis wird die Auswertung i. a. mit mehr als 3 Messungen durchgeführt, um durch überstimmte Gleichungssysteme die Meßgenauigkeit zu erhöhen.
Fig. 2 veranschaulicht eine vorteilhafte Ausführungsmöglichkeit der erfindungsgemäßen 3D- Kamera, hier für nur einen Spektralbereich ausgeführt.
Diese Darstellung entspricht weitgehend der von Fig. 1, jedoch wird hier eine Realisierungsmöglichkeit der sende- und empfangsseitigen optischen Intensitätsmodulatoren 8 und 22 dargestellt. Weiterhin wird in Fig. 2 eine mögliche Anordnung der Sendeoptik 3 und 10 und Empfangsoptik 16 und 24 vorgeschlagen.
Die beiden Intensitätsmodulatoren 8 und 22 dieses Ausführungsbeispiels sind vorzugsweise identisch aufgebaut und beruhen auf der polarisationsabhängigen Lichtdurchlässigkeit eines Polarisators bzw. Polarisationsfilters.
Ein Polarisationsfilter mit senkrechter Polarisation ist z. B. für senkrecht polarisiertes Licht völlig durchlässig und für horizontal polarisiertes Licht völlig sperrend. Die Transmission ist proportional dem Cosinusquadrat der Winkelabweichung.
In beiden Intensitätsmodulatoren 8 und 22 durchläuft das Licht vorzugsweise die gleichen optischen Komponenten.
Zunächst zur sendeseitigen Funktionsweise: Das Sendelicht der Lichtquelle 2 fällt nach der 1. Sendeoptik 3 auf ein 1. Polarisationsfilter 4, das z. B. horizontal polarisiert sein möge. D. h., nur das horizontal polarisierte Licht der Lichtquelle kann passieren. Anschließend trifft es auf den Sende-Polarisationsmodulator 5, der aus einem lichtdurchlässigen Material mit elektrooptischen Eigenschaften besteht. Danach trifft das Licht über eine später beschriebene, wahlweise einsetzbare λ/4-Platte 6 auf ein 2. Polarisationsfilter, dessen Polarisationsrichtung zu der des 1. Polarisationsfilters 4 gekreuzt ist bzw. senkrecht steht.
Erfolgt zwischen diesen beiden gekreuzten Polarisationsfiltern keine zusätzliche Drehung der Polarisation, so ist diese Lichtstrecke völlig gesperrt.
Gleiches gilt für die entsprechend aufgebaute Empfangsstrecke. Dabei weist das eingangsseitige 3. Polarisationsfilter vorzugsweise die gleiche Polarisationsrichtung des Sendelichts auf. Das empfangene, z. B. senkrecht polarisierte Licht wird vom z. B. senkrecht polarisierten 3. Polarisationsfilter 18 vollständig durchgelassen. Anschließend trifft es analog zum Aufbau des Sende-Intensitätsmodulators 8 auf den Empfangs-Polarisationsmodulator 19, weiterhin wahlweise auf eine λ/4-Platte und danach auf ein 4. Polarisationsfilter 21, das zum 3. Polarisationsfilter gekreuzt ist und somit ohne weiteres kein Licht durchläßt.
Die Lichtdurchlässigkeit bzw. Transmission kann durch Anlegen einer Spannung an den sende- und empfangsseitigen Polarisationsmodulator 5 bzw. 19 über das Modulationssignal des Modulationsgenerators 1 beeinflußt werden, indem hiermit die Polarisationsrichtung zwischen den gekreuzten Polarisatoren 4 und 7 des Senders bzw. des Empfängers 18 und 21 gedreht wird.
Die Funktionsweise dieser beiden Polarisationsmodulatoren beruht auf dem elektrooptischen Effekt. Der Brechungsindex bzw. das Brechungsindex-Ellipsoid bestimmter elektrooptisch aktiver Kristalle wie z. B. KDP, ADP, LiNbO₃ usw. und ändert sich unter dem Einfluß eines elektrischen Feldes in anisotroper Weise, so daß sich Lichtwellen unterschiedlicher Polarisation mit unterschiedlichen Geschwindigkeiten ausbreiten können.
Durch geeignete Ausrichtung der Hauptachse des elektrooptischen Materials wird ein Laufzeit- bzw. Gangunterschied zweier orthogonaler Feldkomponenten erzielt, der von der angelegten Spannung abhängt.
Dazu befindet sich der elektrooptische Kristall transversal oder longitudinal zur Richtung der Lichtwellen, je nach der Eignung der elektrooptischen Koeffizienten des Material, zwischen zwei Flächenelektroden wie bei einem Plattenkondensator.
Beträgt die angelegte Spannung Uλ /2, so bedeutet das einen Gangunterschied dieser beiden Feldkomponenten der Lichtquelle von einer halben Wellenlänge.
Bei dieser Modulationsspannung Uλ /2 des Modulationsgenerators 1 hat sich die lineare Polarisation zwischen Eingang und Ausgang des Polarisationsmodulators 5 bzw. 19 um 90° gedreht. Damit sind die entsprechenden Lichtstrecken der Intensitätsmodulatoren 8 und 22 für das entsprechend polarisierte Licht völlig transparent.
Deren Modulatorkennlinie 40 wird für unterschiedliche Modulationsspannungen entsprechend dem Gesetz von Malus durch einen sinusförmigen Verlauf beschrieben, wie in Fig. 3 über der Modulationsspannung und dem Gangunterschied dargestellt.
Damit hängt die Transmission 42 des Lichts gemäß der dargestellten Modulatorkennlinie 40 von der angelegten Spannung des Modulationssignals 41 ab:
T(U) = sin² (90° U/Uλ /2) = ½ - ½ cos (180° U/Uλ /2).
Bei einer nadelimpulsförmigen Modulationsspannung liegt der Ruhearbeitspunkt vorzugsweise im Koordinatenursprung von Fig. 3. Für eine sinusförmige Modulation wird als Arbeitspunkt vorzugsweise der Wendepunkt 45 dieser Cosinusquadratkennlinie bei π/2- bzw. λ/4- Gangunterschied gewählt.
Dazu wird in beiden Intensitätsmodulatoren 8 und 22 eine λ/4-Platte 6 bzw. 20 aus doppelbrechendem Material eingefügt, die bezüglich der Polarisationsdrehung die gleiche Wirkung besitzt wie der Polarisationsmodulator bei der Spannung Uλ /4 = Uλ /2/2.
In diesem Fall ergibt eine sinusförmige Modulationsspannung durch das Modulationssignal 43 näherungsweise einen sinusförmig modulierten Verlauf der Transmission 44, der einen Gleichanteil enthält, der zu einer entsprechenden Grundhelligkeit führt.
Fig. 4 und Fig. 5 zeigen zwei Ausführungsbeispiele der Polarisationsmodulatoren 5 bzw. 19. Der Polarisationsmodulator in Fig. 4 ist vom longitudinalen Typ, d. h. Modulationsfeld und Lichtwelle weisen die gleiche Richtung auf. Dazu werden die Flächenelektroden transparent ausgeführt, vorzugsweise als ITO (Indiumzinnoxyd)-Dünnfilm.
Da die λ/2-Spannung z. B. von einem geeigneten Material KD * P (Kaliumdideuteriumphosphat) mit ca. 4000 Volt relativ hoch ist, werden mehrere Schichten verwendet, an denen über die Zuleitungen 53 und 54 die gleiche Modulationsspannung 52 anliegt.
Bei z. B. 10 Schichten beträgt die λ/2-Spannung dieser Anordnung nur noch ein Zehntel. Bei sinusförmiger Modulation reicht damit in der Praxis ein Effektivwert von etwa 60 bis 100 Volt aus.
Der Polarisationsmodulator 5 bzw. 19 in Fig. 5 ist vom transversalen Typ. Dementsprechend wird durch die Modulationsspannungsquelle 61 über die Flächenelektroden 62 und 63 ein elektrischen Feld quer zur Ausbreitungsrichtung der Lichtwelle angelegt. Hierzu sind Materialien wie Lithiumniobat mit einem elektrooptischen Koeffizienten r₃₃ etwa 30 pm/V oder DAST mit r₁₁ etwa 300 bis 400 pm/V geeignet.
Durch eine zusätzliche Schichtung analog zu der in Fig. 4 läßt sich die erforderliche Modulationsspannung oder die Länge des Polarisationsmodulators verringern.
Eine solche Ausführung der erfindungsgemäßen 3D-Kamera: weist insbesondere folgende Vorteile auf:
  • - Verglichen mit einem Spiegelscannersystem ist die 3D-Kamera kompakt, ohne bewegte Teile, benötigt keinen Laser, die relative Bandbreite kann bis zu 10% betragen, erlaubt den Einsatz z. B. eines LED-Arrays und liefert mit ca. 20 Watt ein um den Faktor 1000 höheres Signalrauschverhältnis gegenüber einem Spiegelscannersystem, daß wegen der Augensicherheit einen Laserstrahl von z. B. nur 20 mW Sendeleistung verwendet.
  • - Der Betrieb der Modulatoren ist nahezu verlustfrei und das Umschalten der Frequenzen durch die Induktivität des Schwingkreises erfolgt synchronisiert im Stromnulldurchgang der Induktivitäten ebenfalls verlustarm.
  • - Keine Augensicherheitsprobleme und keine Speckle-Probleme, da kein Laser erforderlich ist.
  • - Durch symmetrische Verteilung des Sendelichts zur Empfangsachse können Spiegelungseffekte verringert werden.
  • - Durch genaue Vermessung eines großen Modulationsfrequenzbereiches können durch Fouriertransformation Mehrfachreflexionen unterschieden werden.
  • - Durch gezieltes Drehen der Polarisationsrichtungen des Sende- oder Empfangslichts können polarisationsabhängige Reflexionen unterdrückt werden.
Schließlich liefert die gleiche Anordnung von Bild 2 mit dem Schalter 29 in der strichlierten Schalterstellung die Möglichkeit, durch Modulation mit Nadelimpulsen, vorzugsweise aus dem Nullpunkt der Modulatorkennlinie heraus, durch Variation der gegenseitigen Verzögerung von Sende- und Empfangsmodulationssignal den Raum ähnlich zum bekannten TDR (Time Domain Reflechtromtry)-Verfahren in der Tiefe schichtweise abzutasten, wobei die Faltung der Nadelimpulskorrelationsfunktion mit der räumlichen Reflexionscharakteristik der 3D-Szene ermittelt wird.

Claims (26)

1. 3D-Kamera nach dem Laufzeitprinzip unter Verwendung elektromagnetischer Wellen, vorzugsweise von Lichtwellen, mit mindestens einem Sender, der eine Lichtwelle (11 bzw. 12) auf eine 3D-Szene (13), deren Entfernungscharakteristik vom Sender (9) und vom Empfänger (23) in einem gewünschten Raumwinkel gemessen werden soll, sendet, sowie einem Empfänger (23), der die in Richtung des Empfänger reflektierte Lichtwelle (14 bzw. 15) über einen zwischendimensionalen Detektor empfängt und demoduliert, einer vom Sender zum Empfänger führenden Referenzlichtstrecke (32), einem Modulationsgenerator (1), der sowohl den Sender (9) als auch zum Zweck der Demodulation den Empfänger (22) elektronisch moduliert, einer Ablaufsteuerung (27) und einer Auswerteeinheit (26), die pixelweise aus den gemessenen Intensitätswerten die Laufzeitbeziehungen und damit die 3D-Koordinaten der 3D-Szene ermittelt und daraus ein dreidimensionales Bild rekonstruiert dadurch gekennzeichnet, daß der Sender intensitätsmodulierte Lichtwellen mindestens eines Spektralbereichs, jedoch vorzugsweise von drei, den Farben rot, grün und blau entsprechenden Spektralbereichen aussendet und die von der 3D-Szene (13) in den Empfänger (23) reflektierten Lichtwellen vorzugsweise durch vorgeschaltete Bandfilter (17) spektral getrennt über mindestens einen Intensitätsmodulator (22) wahlweise von mindestens einem spektral zugehörigen 2D- Empfangselement (25), vorzugsweise einem Mehrfarben-CCD-Chip, pixelweise in elektrische Signale umgewandelt werden, aus denen mittels der Auswerteeinheit (26) dreidimensionale Grauwertbilder oder vorzugsweise dreidimensionale Farbbilder rekonstruiert werden und daß dabei die Lichtquelle (2) des Senders (9) zumindest zeitweilig Licht konstanter Intensität aussendet, das durch einen nachgeschalteten optischen Intensitätsmodulator (8) moduliert wird, wobei die empfangenen Lichtwellen durch den dem 2D-Empfangselement (25) vorgeschalteten optischen Intensitätsmodulator (22), der möglichst gleichartig zum sendeseitigen Intensitätsmodulator (8) ausgelegt und betrieben wird, demoduliert werden, und wobei beide Intensitätsmodulatoren (8 und 22) durch das gleiche Modulationssignal oder durch das bis auf einen durch ein steuerbares Verzögerungsglied (28) verursachten Zeitversatz gleiche Modulationssignal wahlweise in Form einer Sinusschwingung im MHz bis GHz-Bereich oder in Form von Nadelimpulsen im ps- bis ns-Bereich angesteuert wird.
2. 3D-Kamera nach Anspruch 1, dadurch gekennzeichnet, daß der Sende-Intensitätsmodulator (8) und der Empfangs-Intensitätsmodulator (22) eingangsseitig linear polarisierte Lichtwellen erhalten und ausgangsseitig je ein Polarisationsfilter (7 bzw. 21) enthalten, dessen Polarisation zu diesen linear polarisierten eingangsseitigen Lichtwellen gekreuzt ist und daß sich jeweils vor dem ausgangsseitig enthaltenen Polarisationsfilter (7) des Sende-Intensitätsmodulators (8) und vor dem ausgangsseitig enthaltenen Polarisationsfilter (21) des Empfangs-Intensitätsmodulators (22) je ein elektrooptisch aktiver Polarisationsmodulator (5 bzw. 19) möglichst gleicher Eigenschaften befindet, der von einem gemeinsamen Modulationsgenerator (1) wahlweise mit dem gleichen oder mit dem - bis auf einen Laufzeitunterschied T einer steuerbaren Verzögerungseinheit - gleichen Modulationssignal angesteuert wird.
3. 3D-Kamera nach Anspruch 1 und 2, dadurch gekennzeichnet, daß der Sende- Intensitätsmodulator (8) und der Empfangs-Intensitätsmodulator (22) jeweils vor dem ausgangsseitigen Polarisationsfilter (7 bzw. 21) eine sog. λ/4-Platte mit einem Gangunterschied einer viertel Wellenlänge enthält.
4. 3D-Kamera nach Anspruch 1 bis 3, dadurch gekennzeichnet, daß der Empfänger vor dem Intensitätsmodulator (22) mindestens ein Bandfilter (17) entsprechend dem optischen Spektralbereich des Senders und ein Polarisationsfilter (18) entsprechend der Polarisierung des vom Sender (9) abgegebenen Lichts enthält.
5. 3D-Kamera nach Anspruch 1 bis 4, dadurch gekennzeichnet, daß die beiden Polarisationsmodulatoren (5 bzw. 19) möglichst gleichartig aufgebaut sind und vorzugsweise aus mehreren Schichten bestehen, an denen, den elektrooptischen Effekt verstärkend, die gleiche Modulationsspannung mit longitudinalen Modulationsfeldern anliegt.
6. 3D-Kamera nach Anspruch 1 bis 4, dadurch gekennzeichnet, daß die Polarisationsmodulatoren (5 bzw. 19) aus mehreren Schichten bestehen, an denen, den elektrooptischen Effekt verstärkend, die gleiche Modulationsspannung mit transversalen Modulationsfeldern anliegt.
7. 3D-Kamera nach Anspruch 1, dadurch gekennzeichnet, daß die Lichtwellen des Senders (9) aus mehreren Spektralbereichen, z. B. drei Farben, bestehen, die mit einem einzigen Intensitätsmodulator (8), der auf den mittleren Spektralbereich hin ausgelegt ist, intensitätsmoduliert werden.
8. 3D-Kamera nach Anspruch 1, dadurch gekennzeichnet, daß der Modulationsgenerator (1) für die gleiche 3D-Szene nacheinander mindestens drei verschiedene Frequenzen etwa für die Dauer von ms bis zu Sekunden erzeugt, in der die Intensitäten pixelweise integriert werden, wobei aus den diesen Frequenzen zugehörigen Intensitätsbildern in der Auswerteeinheit die zugehörigen Laufzeitinformationen berechnet und zusammen mit den Grauwert- bzw. Farbinformationen der Grundhelligkeit am Ausgang (30) als komplette 3D-Grauwertbilder bzw. 3D-Farbbilder zur Verfügung gestellt werden.
9. 3D-Kamera nach Anspruch 1 oder einem der nachfolgenden, gekennzeichnet durch die Verwendung eines einzigen Spektralbereichs mit nur einem sendeseitigen Intensitätsmodulator (8) und nur einem empfangsseitigen Intensitätsmodulator (22) und einem optischen 2D- Empfangselement für die Grauwertdetektion.
10. 3D-Kamera nach Anspruch 1 oder einem der nachfolgenden, dadurch gekennzeichnet, daß die Referenzstrecke (32), die von mindestens einem Spektralbereich der gesendeten Lichtwellen zu mindestens einem zugeordneten empfangenen Spektralbereich des Empfängers führt, durch mehrere Lichtleitfasern unterschiedlicher Laufzeit, deren Referenzlicht auf mehrere Pixel mindestens eines spektral zugeordneten 2D-Empfangselements (25) zum Zweck einer systematischen, räumlichen Kalibrierung abgebildet wird, realisiert wird.
11. 3D-Kamera nach Anspruch 1 oder einem der nachfolgenden, dadurch gekennzeichnet, daß die Ausgangspolarisation des Senders und die Eingangspolarisation des Empfängers wahlweise gleich und entweder horizontal oder vertikal ist oder gekreuzt ist.
12. 3D-Kamera nach Anspruch 13, dadurch gekennzeichnet, daß für die gleiche 3D-Szene jeweils mindestens 2 eigenständige 3D-Messungen durch jeweils mindestens drei Frequenzen durchgeführt werden, wobei sich diese 2 oder mehrere Frequenzkombinationen vorzugsweise um einen konstanten Frequenzversatz unterscheiden.
13. 3D-Kamera nach Anspruch 1 oder einem der nachfolgenden, dadurch gekennzeichnet, daß von der gleichen 3D-Szene mindestens 3 verschiedene Intensitätsbilder auf dem 2D- Empfangselement (25) nacheinander bei mindestens drei verschiedenen durch die Verzögerungseinheit (28) eingestellten Phasenlaufzeitunterschiede zwischen dem Sender- und dem Empfänger-Modulationssignal aufgenommen und daraus pixelweise die Entfernungsinformationen und das zugehörige 3D-Bild berechnet werden.
14. 3D-Kamera nach Anspruch 13, dadurch gekennzeichnet, daß die Phasenlaufzeitunterschiede der Verzögerungseinheit (28) durch zwischengeschaltete Leitungsstücke realisiert werden.
15. 3D-Kamera nach Anspruch 13, dadurch gekennzeichnet, daß für die gleiche 3D-Szene mindestens 2 eigenständige 3D-Messungen durch mindestens drei verschiedene durch die Verzögerungseinheit (28) eingestellten Phasenlaufzeitverzögerungen τ durchgeführt werden, wobei diese 2 oder mehrere Phasenlaufzeitkombinationen jeweils unterschiedlichen Frequenzen des Modulationssignals zugeordnet werden.
16. 3D-Kamera nach Anspruch 2 oder einem der nachfolgenden, dadurch gekennzeichnet, daß die Kapazitäten der beiden Polarisationsmodulatoren (5 und 19) zusammen mit der Verzögerungseinheit (28) und dem Modulationsgenerator (1) bei der jeweils eingestellten Frequenz eine nahezu verlustfreie Resonanzschaltung mit einer frequenzbestimmenden Schwingkreisinduktivität darstellen.
17. 3D-Kamera nach Anspruch 1, 8 und 16, dadurch gekennzeichnet, daß die Umschaltung der Modulationsfrequenz durch die Umschaltung der frequenzbestimmenden Schwingkreisinduktivität synchronisiert im Stromnulldurchgang der Schwingkreisinduktivität vorzugsweise unter Berücksichtigung von Leitungsabschnitten der Laufzeit τ der Verzögerungseinheit (28) und deren Transformationseigenschaften erfolgt.
18. 3D-Kamera nach Anspruch 1 und 2, dadurch gekennzeichnet, daß das Material der beiden Polarisationsmodulatoren (5 und 19) doppelbrechend ist und in der Länge so ausgelegt wird, daß der Gangunterschied ohne angelegte Spannung eine viertel Wellenlänge beträgt und damit die λ/4-Platten (6 bzw. 20) entfallen können.
19. 3D-Kamera nach Anspruch 1 und 2, dadurch gekennzeichnet, daß die beiden Polarisationsmodulatoren so unter dem Brewsterwinkel angeordnet werden, daß das 1. Polarisationsfilter (4) und das 3. Polarisationsfilter (18) entfallen können.
20. 3D-Kamera nach Anspruch 1 oder einem der nachfolgenden, dadurch gekennzeichnet, daß im Sender (9) und im Empfänger (23) vorzugsweise die gleichen Optiken verwendet werden und daß die Lichtquelle (2) jeweils durch ein Leuchtdiodenarray etwa der Größe der aktiven Fläche des 2D-Empfangselementes (25) gebildet wird.
21. 3D-Kamera nach Anspruch 1, dadurch gekennzeichnet, daß der Modulationsgenerator (1) in der strichlierten Stellung des Schalters (29) Nadelimpulse abgibt und die 3D-Szene (13) durch Wahl der Verzögerungszeit τ der Verzögerungseinheit (28) räumlich in der Tiefe schichtweise vermessen wird, wobei vorzugsweise im Sende- und Empfangs-Intensitätsmodulator (8 und 22) keine λ/4-Platte verwendet wird.
22. 3D-Kamera nach Anspruch 21, dadurch gekennzeichnet, daß die Lichtquelle (2) vorzugsweise als mindestens ein gepulstes Leuchtdiodenarray realisiert und von der Ablaufsteuerung über die strichlierte Verbindung (37) so getriggert wird, daß der Nadelimpuls etwa in das Maximum des von der Lichtquelle (2) abgegebenen Impulses fällt.
23. 3D-Kamera nach Anspruch 1 oder einem der nachfolgenden, dadurch gekennzeichnet, daß für eine 3D-Farbaufnahme sendeseitig nur eine Lichtquelle (2), die Weißlicht abgibt, sowie vorzugsweise nur ein Intensitätsmodulator (8) verwendet wird.
24. 3D-Kamera nach Anspruch 1 oder einem der nachfolgenden, dadurch gekennzeichnet, daß in einer vereinfachten Ausführung die 3D-Szene nur mit einer modulierten Lichtzeile beleuchtet wird, die empfangsseitig über einen entsprechend zugeordneten Empfangs-Intensitätsmodulator auf ein eindimensionales Empfangselement, vorzugsweise in Form einer CCD-Zeile, abgebildet wird, wobei die dritte Dimension durch Scannen oder die Bewegung der 3D-Szene ermittelt wird.
25. 3D-Kamera nach Anspruch 1 oder einem der nachfolgenden, dadurch gekennzeichnet, daß die Ablaufsteuerung (27) in der strichlierten Stellung des Schalters (29) einerseits über die gesteuerten Phaseneinheit (28) eine binäre Phasenumtastung, daß heißt Phasenänderungen von 0° und 180° zusätzlich zu einer Grundphasenverschiebung für das Sende-Modulationssignal nach vorzugsweise einem pseudobinären Zufallscode bewirkt, während das Empfangs- Modulationssignal unbeeinflußt bleibt, und andererseits die Auswerteeinheit (26) und/oder das 2D-Empfangselement (25) synchron so steuert, daß die Intensitätsamplituden pixelweise entsprechend diesem Pseudozufallscode positiv bzw. negativ gewichtet und über mehrere Perioden dieses Codes aufintegriert werden.
26. 3D-Kamera nach Anspruch 1 oder einem der nachfolgenden, dadurch gekennzeichnet, daß die Ablaufsteuerung nach Kriterien der Güte der 3D-Meßergebnisse der Auswerteeinheit über die Verbindung (36) im Sinne einer Verbesserung des Meßergebnisses durch entsprechende optimierte Anpassung beeinflußt wird.
DE4439298A 1994-11-07 1994-11-07 3D-Kamera nach Laufzeitverfahren Ceased DE4439298A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4439298A DE4439298A1 (de) 1994-11-07 1994-11-07 3D-Kamera nach Laufzeitverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4439298A DE4439298A1 (de) 1994-11-07 1994-11-07 3D-Kamera nach Laufzeitverfahren

Publications (1)

Publication Number Publication Date
DE4439298A1 true DE4439298A1 (de) 1996-06-13

Family

ID=6532409

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4439298A Ceased DE4439298A1 (de) 1994-11-07 1994-11-07 3D-Kamera nach Laufzeitverfahren

Country Status (1)

Country Link
DE (1) DE4439298A1 (de)

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998010255A1 (de) * 1996-09-05 1998-03-12 Rudolf Schwarte Verfahren und vorrichtung zur bestimmung der phasen- und/oder amplitudeninformation einer elektromagnetischen welle
DE19741896C2 (de) * 1997-09-23 1999-08-12 Opel Adam Ag Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
DE19851307A1 (de) * 1998-10-08 2000-04-13 Z & F Zoller & Froehlich Gmbh System und Verfahren zum Ermitteln mindestens einer physikalischen Größe
DE19704496C2 (de) * 1996-09-05 2001-02-15 Rudolf Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE10025258A1 (de) * 2000-05-22 2001-12-06 Adc Automotive Dist Control Optisches System
EP1178333A2 (de) * 2000-08-03 2002-02-06 Eastman Kodak Company Vefahren und Gerät für ein Farbentfernungsbilderzeugungssystem ohne Abtastung
WO2002025805A2 (de) * 2000-09-22 2002-03-28 Siemens Aktiengesellschaft Photoelektronische mischschaltung
DE10041769A1 (de) * 2000-08-25 2002-03-28 Siemens Ag 3D-Radarsensor
WO2002031455A1 (de) * 2000-10-09 2002-04-18 S-Tec Gmbh Erfassung von phase und amplitude elektromagnetischer wellen
WO2002033817A1 (de) * 2000-10-16 2002-04-25 Rudolf Schwarte Verfahren und vorrichtung zur erfassung und verarbeitung von signalwellen
EP1353144A2 (de) 2002-04-09 2003-10-15 Itt Manufacturing Enterprises, Inc. Multispektrale aktive Fernmessung ohne schmalbandige optische Filter
WO2004021546A2 (de) * 2002-08-09 2004-03-11 Conti Temic Microelectronic Gmbh Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb
WO2004027359A1 (de) * 2002-09-13 2004-04-01 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur ermittlung eines pixel-grauwertbildes
DE10259135A1 (de) * 2002-12-18 2004-07-01 Conti Temic Microelectronic Gmbh Verfahren und Anordnung zur Referenzierung von 3D Bildaufnehmern
DE10118183B4 (de) * 2001-04-11 2005-06-23 Siemens Ag Röntengerät
WO2005122058A1 (de) * 2004-06-09 2005-12-22 Robert Bosch Gmbh Verfahren zur kalibrierung einer sensorik zur fahrzeuginnenraumüberwachung
US7006814B2 (en) 2000-06-08 2006-02-28 Nec Corporation Direct conversion receiver and transceiver
EP1703741A1 (de) * 2005-03-17 2006-09-20 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. 3D Bildaufnahmevorrichtung
EP1903299A1 (de) * 2006-09-20 2008-03-26 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Verfahren und System zur Erfassung eines 3D-Bildes einer Szene
WO2008068791A1 (en) 2006-12-06 2008-06-12 Enea-Ente Per Le Nuove Tecnologie E L'ambiente Three-dimensional optical radar method and device which use three rgb beams modulated by laser diodes, in particular for metrological and fine arts applications
US7420148B2 (en) 2002-09-13 2008-09-02 Conti Temic Microelectronic Gmbh Method and device for determining a pixel gray scale value image
DE102008007451A1 (de) 2008-01-31 2009-08-06 Carl Zeiss Microimaging Gmbh Anordnung zur dreidimensionalen Abbildung einer Szene
WO2010025847A2 (de) * 2008-09-02 2010-03-11 Carl Zeiss Ag Vorrichtung und verfahren zum vermessen einer oberfläche
WO2010068499A1 (en) 2008-11-25 2010-06-17 Tetravue, Inc. Systems and methods of high resolution three-dimensional imaging
US7787929B2 (en) 2003-07-25 2010-08-31 Siemens Aktiengesellschaft Control system for medical equipment
WO2010139609A1 (en) * 2009-06-04 2010-12-09 Iee International Electronics & Engineering S.A. Method and device for acquiring a range image
CH702255A1 (de) * 2009-11-24 2011-05-31 Innostarter Ag Vorrichtung zur räumlichen Erfassung eines Objekts mittels optischer Abtastung.
DE102010003409A1 (de) * 2010-03-29 2011-09-29 Ifm Electronic Gmbh Lichtlaufzeit-Kamera
DE102005011116B4 (de) * 2005-03-10 2012-03-15 Agtatec Ag Vorrichtung zur Ansteuerung und/oder Überwachung eines Flügels
WO2012123152A1 (de) * 2011-03-17 2012-09-20 Robert Bosch Gmbh Messvorrichtung zur messung einer entfernung zwischen der messvorrichtung und einem zielobjekt mit hilfe optischer messstrahlung
DE102010030108B4 (de) * 2010-06-15 2014-12-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Farbbildsensor
WO2015018836A1 (de) * 2013-08-08 2015-02-12 Robert Bosch Gmbh Lichtdetektionsvorrichtung und steuerverfahren
DE102013219344A1 (de) * 2013-09-26 2015-03-26 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung des Abstandes eines Objektes mittels eines polarisationsmodulierten Sendelichtstrahls
US9175947B2 (en) 2008-09-02 2015-11-03 Carl Zeiss Ag Method and device for determining a position of an object
JP2016014665A (ja) * 2014-07-03 2016-01-28 アドヴァンスド サイエンティフィック コンセプツ,イン 密集環境のladarセンサ
EP1379833B1 (de) 2001-04-19 2016-06-01 Mapvision OY Verfahren zum angeben eines punkts in einem messraum
WO2016136410A1 (en) * 2015-02-23 2016-09-01 Mitsubishi Electric Corporation System and method for determining depth image representing distances to points of scene
DE102016221183A1 (de) 2015-10-30 2017-05-04 pmdtechnologies ag Kalibriervorrichtung für ein Lichtlaufzeitkamerasystem
DE102016221186A1 (de) 2015-10-30 2017-05-04 pmdtechnologies ag Kalibriervorrichtung für ein Lichtlaufzeitkamerasystem
EP3182156A1 (de) * 2015-12-18 2017-06-21 STMicroelectronics (Research & Development) Limited Sortiervorrichtung
EP3282286A1 (de) * 2016-08-08 2018-02-14 Leuze electronic GmbH + Co KG Optischer sensor
US10104365B2 (en) 2014-04-26 2018-10-16 Tetravue, Inc. Method and system for robust and extended illumination waveforms for depth sensing in 3D imaging
US10237534B2 (en) 2014-07-07 2019-03-19 Infineon Technologies Ag Imaging device and a method for producing a three-dimensional image of an object
DE102008002553B4 (de) * 2008-06-20 2019-08-29 Robert Bosch Gmbh Bildaufnahmeanordnung und Nachtsichtsystem mit einer Bildaufnahmeanordnung
CN110192121A (zh) * 2017-12-22 2019-08-30 索尼半导体解决方案公司 信号生成装置
DE102018107583A1 (de) * 2018-03-29 2019-10-02 Jenoptik Optical Systems Gmbh Prüfvorrichtung und Verfahren zum Prüfen eines Messgeräts zur optischen Abstandsmessung
US11209664B2 (en) 2016-02-29 2021-12-28 Nlight, Inc. 3D imaging system and method
US11212512B2 (en) 2017-12-28 2021-12-28 Nlight, Inc. System and method of imaging using multiple illumination pulses
US11397246B2 (en) 2017-09-25 2022-07-26 Hexagon Technology Center Gmbh Multi-beam laser scanner
WO2022189094A1 (de) * 2021-03-11 2022-09-15 Scoobe3D Gmbh Optisches system zur gewinnung von 3d-rauminformationen
US11894851B2 (en) 2017-12-22 2024-02-06 Sony Semiconductor Solutions Corporation Signal generation apparatus for time-of-flight camera with suppressed cyclic error

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4129912C1 (de) * 1991-09-09 1992-10-22 Dornier Luftfahrt Gmbh, 8031 Wessling, De
DE4303015C1 (de) * 1991-09-09 1994-07-07 Dornier Luftfahrt Verfahren zur Aufnahme von Entfernungsbildern
DE4430026A1 (de) * 1993-09-02 1995-03-09 Nissan Motor Entfernungsmeßvorrichtung
DE4411218C1 (de) * 1994-02-25 1995-09-07 Rudolf Prof Dr Ing Schwarte Entfernungsmeßgerät nach dem Laufzeitprinzip

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4129912C1 (de) * 1991-09-09 1992-10-22 Dornier Luftfahrt Gmbh, 8031 Wessling, De
DE4303015C1 (de) * 1991-09-09 1994-07-07 Dornier Luftfahrt Verfahren zur Aufnahme von Entfernungsbildern
DE4430026A1 (de) * 1993-09-02 1995-03-09 Nissan Motor Entfernungsmeßvorrichtung
DE4411218C1 (de) * 1994-02-25 1995-09-07 Rudolf Prof Dr Ing Schwarte Entfernungsmeßgerät nach dem Laufzeitprinzip

Cited By (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6825455B1 (en) 1996-09-05 2004-11-30 Rudolf Schwarte Method and apparatus for photomixing
AU715284B2 (en) * 1996-09-05 2000-01-20 Rudolf Schwarte Method and apparatus for determining the phase and/or amplitude information of an electromagnetic wave
DE19704496C2 (de) * 1996-09-05 2001-02-15 Rudolf Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US7053357B2 (en) 1996-09-05 2006-05-30 Rudolf Schwarte Method and apparatus for determining the phase and/or amplitude information of an electromagnetic wave for photomixing
WO1998010255A1 (de) * 1996-09-05 1998-03-12 Rudolf Schwarte Verfahren und vorrichtung zur bestimmung der phasen- und/oder amplitudeninformation einer elektromagnetischen welle
DE19741896C2 (de) * 1997-09-23 1999-08-12 Opel Adam Ag Vorrichtung zur bildlichen Darstellung von Bereichen der Umgebung eines Kraftfahrzeugs
DE19851307A1 (de) * 1998-10-08 2000-04-13 Z & F Zoller & Froehlich Gmbh System und Verfahren zum Ermitteln mindestens einer physikalischen Größe
DE19851307B4 (de) * 1998-10-08 2007-12-27 Zoller & Fröhlich GmbH System und Verfahren zum Ermitteln mindestens einer physikalischen Größe
DE10025258A1 (de) * 2000-05-22 2001-12-06 Adc Automotive Dist Control Optisches System
US7006814B2 (en) 2000-06-08 2006-02-28 Nec Corporation Direct conversion receiver and transceiver
EP1178333A2 (de) * 2000-08-03 2002-02-06 Eastman Kodak Company Vefahren und Gerät für ein Farbentfernungsbilderzeugungssystem ohne Abtastung
EP1178333A3 (de) * 2000-08-03 2004-02-11 Eastman Kodak Company Vefahren und Gerät für ein Farbentfernungsbilderzeugungssystem ohne Abtastung
WO2002016959A3 (de) * 2000-08-25 2002-04-25 Siemens Ag 3d-radarsensor
DE10041769A1 (de) * 2000-08-25 2002-03-28 Siemens Ag 3D-Radarsensor
WO2002025805A3 (de) * 2000-09-22 2003-06-05 Siemens Ag Photoelektronische mischschaltung
WO2002025805A2 (de) * 2000-09-22 2002-03-28 Siemens Aktiengesellschaft Photoelektronische mischschaltung
WO2002031455A1 (de) * 2000-10-09 2002-04-18 S-Tec Gmbh Erfassung von phase und amplitude elektromagnetischer wellen
WO2002033817A1 (de) * 2000-10-16 2002-04-25 Rudolf Schwarte Verfahren und vorrichtung zur erfassung und verarbeitung von signalwellen
KR100852446B1 (ko) * 2000-10-16 2008-08-14 슈바르테, 루돌프 신호 파형의 진폭 및 위상을 감지 및 처리하기 위한 방법
WO2002033922A3 (de) * 2000-10-16 2003-06-05 Rudolf Schwarte Vorrichtung zur erfassung und verarbeitung von signalwellen, und verfahren dazu
WO2002033922A2 (de) * 2000-10-16 2002-04-25 Rudolf Schwarte Vorrichtung zur erfassung und verarbeitung von signalwellen, und verfahren dazu
DE10118183B4 (de) * 2001-04-11 2005-06-23 Siemens Ag Röntengerät
EP1379833B1 (de) 2001-04-19 2016-06-01 Mapvision OY Verfahren zum angeben eines punkts in einem messraum
EP1353144A3 (de) * 2002-04-09 2008-12-10 Itt Manufacturing Enterprises, Inc. Multispektrale aktive Fernmessung ohne schmalbandige optische Filter
EP1353144A2 (de) 2002-04-09 2003-10-15 Itt Manufacturing Enterprises, Inc. Multispektrale aktive Fernmessung ohne schmalbandige optische Filter
WO2004021546A2 (de) * 2002-08-09 2004-03-11 Conti Temic Microelectronic Gmbh Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb
WO2004021546A3 (de) * 2002-08-09 2004-06-03 Conti Temic Microelectronic Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb
DE10392601B4 (de) 2002-08-09 2023-01-19 Conti Temic Microelectronic Gmbh Verkehrsmittel mit einer 3D-Entfernungsbildkamera und Verfahren zu dessen Betrieb
WO2004027359A1 (de) * 2002-09-13 2004-04-01 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur ermittlung eines pixel-grauwertbildes
US7420148B2 (en) 2002-09-13 2008-09-02 Conti Temic Microelectronic Gmbh Method and device for determining a pixel gray scale value image
WO2004055544A1 (de) * 2002-12-18 2004-07-01 Conti Temic Microelectronic Gmbh Verfahren zur kalibrierung von 3d-bildaufnehmern
DE10259135A1 (de) * 2002-12-18 2004-07-01 Conti Temic Microelectronic Gmbh Verfahren und Anordnung zur Referenzierung von 3D Bildaufnehmern
US7787929B2 (en) 2003-07-25 2010-08-31 Siemens Aktiengesellschaft Control system for medical equipment
WO2005122058A1 (de) * 2004-06-09 2005-12-22 Robert Bosch Gmbh Verfahren zur kalibrierung einer sensorik zur fahrzeuginnenraumüberwachung
DE102005011116B4 (de) * 2005-03-10 2012-03-15 Agtatec Ag Vorrichtung zur Ansteuerung und/oder Überwachung eines Flügels
EP1703741A1 (de) * 2005-03-17 2006-09-20 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. 3D Bildaufnahmevorrichtung
WO2006097406A3 (en) * 2005-03-17 2006-12-28 Iee Sarl 3-d imaging system
WO2006097406A2 (en) * 2005-03-17 2006-09-21 Iee International Electronics & Engineering S.A. 3-d imaging system
US7924411B2 (en) * 2005-03-17 2011-04-12 Iee International Electronics & Engineering S.A. 3-D imaging system
US7952690B2 (en) 2006-09-20 2011-05-31 Iee International Electronics & Engineering S.A. Method and system for acquiring a 3-D image of a scene
WO2008034738A1 (en) * 2006-09-20 2008-03-27 Iee International Electronics & Engineering S.A. Method and system for acquiring a 3-d image of a scene
EP1903299A1 (de) * 2006-09-20 2008-03-26 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Verfahren und System zur Erfassung eines 3D-Bildes einer Szene
WO2008068791A1 (en) 2006-12-06 2008-06-12 Enea-Ente Per Le Nuove Tecnologie E L'ambiente Three-dimensional optical radar method and device which use three rgb beams modulated by laser diodes, in particular for metrological and fine arts applications
DE102008007451A1 (de) 2008-01-31 2009-08-06 Carl Zeiss Microimaging Gmbh Anordnung zur dreidimensionalen Abbildung einer Szene
DE102008002553B4 (de) * 2008-06-20 2019-08-29 Robert Bosch Gmbh Bildaufnahmeanordnung und Nachtsichtsystem mit einer Bildaufnahmeanordnung
US9175947B2 (en) 2008-09-02 2015-11-03 Carl Zeiss Ag Method and device for determining a position of an object
WO2010025847A3 (de) * 2008-09-02 2010-10-28 Carl Zeiss Ag Vorrichtung und verfahren zum vermessen einer oberfläche
US8836955B2 (en) 2008-09-02 2014-09-16 Carl Zeiss Ag Device and method for measuring a surface
WO2010025847A2 (de) * 2008-09-02 2010-03-11 Carl Zeiss Ag Vorrichtung und verfahren zum vermessen einer oberfläche
CN102292980A (zh) * 2008-11-25 2011-12-21 泰特拉维公司 高分辨率三维成像的系统和方法
WO2010068499A1 (en) 2008-11-25 2010-06-17 Tetravue, Inc. Systems and methods of high resolution three-dimensional imaging
JP2019015745A (ja) * 2008-11-25 2019-01-31 テトラビュー, インコーポレイテッド 高解像度三次元撮像のシステムおよび方法
US10218962B2 (en) 2008-11-25 2019-02-26 Tetravue, Inc. Systems and method of high resolution three-dimensional imaging
EP2359593A4 (de) * 2008-11-25 2014-01-22 Tetravue Inc Systeme und verfahren für dreidimensionale bildgebung mit hoher auflösung
EP2359593A1 (de) * 2008-11-25 2011-08-24 Tetravue, Inc. Systeme und verfahren für dreidimensionale bildgebung mit hoher auflösung
EP3396416A1 (de) * 2008-11-25 2018-10-31 Tetravue, Inc. Systeme und verfahren für dreidimensionale bildgebung mit hoher auflösung
JP2016153795A (ja) * 2008-11-25 2016-08-25 テトラビュー, インコーポレイテッド 高解像度三次元撮像のシステムおよび方法
US11627300B2 (en) 2008-11-25 2023-04-11 Nlight, Inc. System and method of three-dimensional imaging
CN102292980B (zh) * 2008-11-25 2015-04-01 泰特拉维公司 高分辨率三维成像的系统和方法
US9007439B2 (en) 2008-11-25 2015-04-14 Tetravue, Inc. Systems and method of high resolution three-dimesnsional imaging
WO2010139609A1 (en) * 2009-06-04 2010-12-09 Iee International Electronics & Engineering S.A. Method and device for acquiring a range image
EP2264481A1 (de) 2009-06-04 2010-12-22 IEE International Electronics & Engineering S.A. Verfahren und Vorrichtung zum Erzeugen eines entfernungsaufgelösten Bildes
CH702255A1 (de) * 2009-11-24 2011-05-31 Innostarter Ag Vorrichtung zur räumlichen Erfassung eines Objekts mittels optischer Abtastung.
DE102010003409A1 (de) * 2010-03-29 2011-09-29 Ifm Electronic Gmbh Lichtlaufzeit-Kamera
DE102010003409B4 (de) 2010-03-29 2022-06-09 pmdtechnologies ag Lichtlaufzeit-Kamera
DE102010030108B4 (de) * 2010-06-15 2014-12-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Farbbildsensor
CN103443648B (zh) * 2011-03-17 2016-08-17 罗伯特·博世有限公司 用于借助光学测量射线来测量在测量装置和目标对象之间的距离的测量装置
US9348018B2 (en) 2011-03-17 2016-05-24 Robert Bosch Gmbh Measurement device for measuring a distance between the measurement device and a target object using an optical measurement beam
CN103443648A (zh) * 2011-03-17 2013-12-11 罗伯特·博世有限公司 用于借助光学测量射线来测量在测量装置和目标对象之间的距离的测量装置
WO2012123152A1 (de) * 2011-03-17 2012-09-20 Robert Bosch Gmbh Messvorrichtung zur messung einer entfernung zwischen der messvorrichtung und einem zielobjekt mit hilfe optischer messstrahlung
WO2015018836A1 (de) * 2013-08-08 2015-02-12 Robert Bosch Gmbh Lichtdetektionsvorrichtung und steuerverfahren
DE112014002787B4 (de) 2013-09-26 2023-03-09 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung des Abstandes eines Objektes mittels eines polarisationsmodulierten Sendelichtstrahls
DE102013219344A1 (de) * 2013-09-26 2015-03-26 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung des Abstandes eines Objektes mittels eines polarisationsmodulierten Sendelichtstrahls
US9971025B2 (en) 2013-09-26 2018-05-15 Conti Temic Microelectronic Gmbh Method for determining the distance of an object by means of a polarization-modulated transmission light beam
US11516456B2 (en) 2014-04-26 2022-11-29 Nlight, Inc. Method and system for robust and extended illumination waveforms for depth sensing in 3D imaging
US10104365B2 (en) 2014-04-26 2018-10-16 Tetravue, Inc. Method and system for robust and extended illumination waveforms for depth sensing in 3D imaging
JP2016014665A (ja) * 2014-07-03 2016-01-28 アドヴァンスド サイエンティフィック コンセプツ,イン 密集環境のladarセンサ
EP3828594A1 (de) * 2014-07-03 2021-06-02 Advanced Scientific Concepts, Inc. Ladar-sensor für eine dichte umgebung
EP2963445A3 (de) * 2014-07-03 2016-04-27 Advanced Scientific Concepts, Inc. Ladar-sensor für eine dichte umgebung
US9575184B2 (en) 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
US10237534B2 (en) 2014-07-07 2019-03-19 Infineon Technologies Ag Imaging device and a method for producing a three-dimensional image of an object
DE102015110233B4 (de) 2014-07-07 2021-12-02 Infineon Technologies Dresden Gmbh Eine Bilderzeugungsvorrichtung und ein Verfahren zum Produzieren eines dreidimensionalen Bildes eines Objekts
WO2016136410A1 (en) * 2015-02-23 2016-09-01 Mitsubishi Electric Corporation System and method for determining depth image representing distances to points of scene
US9897698B2 (en) 2015-02-23 2018-02-20 Mitsubishi Electric Research Laboratories, Inc. Intensity-based depth sensing system and method
DE102016221186A1 (de) 2015-10-30 2017-05-04 pmdtechnologies ag Kalibriervorrichtung für ein Lichtlaufzeitkamerasystem
DE102016221183A1 (de) 2015-10-30 2017-05-04 pmdtechnologies ag Kalibriervorrichtung für ein Lichtlaufzeitkamerasystem
EP3182156A1 (de) * 2015-12-18 2017-06-21 STMicroelectronics (Research & Development) Limited Sortiervorrichtung
US10261175B2 (en) 2015-12-18 2019-04-16 Stmicroelectronics (Research & Development) Limited Ranging apparatus
US11209664B2 (en) 2016-02-29 2021-12-28 Nlight, Inc. 3D imaging system and method
EP3282286A1 (de) * 2016-08-08 2018-02-14 Leuze electronic GmbH + Co KG Optischer sensor
US11789127B2 (en) 2017-09-25 2023-10-17 Hexagon Technology Center Gmbh Multi-beam laser scanner
EP3460520B1 (de) * 2017-09-25 2023-07-19 Hexagon Technology Center GmbH Mehrstrahllaserscanner
US11397246B2 (en) 2017-09-25 2022-07-26 Hexagon Technology Center Gmbh Multi-beam laser scanner
CN110192121A (zh) * 2017-12-22 2019-08-30 索尼半导体解决方案公司 信号生成装置
US11543525B2 (en) 2017-12-22 2023-01-03 Sony Semiconductor Solutions Corporation Signal generation apparatus
EP3572843A4 (de) * 2017-12-22 2020-03-11 Sony Semiconductor Solutions Corporation Signalerzeugungsvorrichtung
US11894851B2 (en) 2017-12-22 2024-02-06 Sony Semiconductor Solutions Corporation Signal generation apparatus for time-of-flight camera with suppressed cyclic error
US11921209B2 (en) 2017-12-22 2024-03-05 Sony Semiconductor Solutions Corporation Signal generation apparatus
US11212512B2 (en) 2017-12-28 2021-12-28 Nlight, Inc. System and method of imaging using multiple illumination pulses
DE102018107583A1 (de) * 2018-03-29 2019-10-02 Jenoptik Optical Systems Gmbh Prüfvorrichtung und Verfahren zum Prüfen eines Messgeräts zur optischen Abstandsmessung
WO2022189094A1 (de) * 2021-03-11 2022-09-15 Scoobe3D Gmbh Optisches system zur gewinnung von 3d-rauminformationen

Similar Documents

Publication Publication Date Title
DE4439298A1 (de) 3D-Kamera nach Laufzeitverfahren
DE19704496C2 (de) Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE3306709C2 (de)
DE102004037137B4 (de) Verfahren und Vorrichtung zur Entfernungsmessung
EP0313518B1 (de) Verfahren zur elektrooptischen Distanzmessung
EP0428027B1 (de) Optische Entfernungsmessvorrichtung
DE112013006651T5 (de) Optisches Mehrfachmodus-Messgerät und Betriebsverfahren
DE102010038955A1 (de) Absolutentfernungsmessvorrichtung mit optischem Schalter
DE102013207649A1 (de) Lichtlaufzeitkamerasystem
DE102020002236A1 (de) Energie effizienter, hoch auflösender licht detektions- und abstandsbildempfänger mit grossem bildfeld
DE102016201599A1 (de) Lichtlaufzeitkamerasystem
DE102013207653B4 (de) Lichtlaufzeitkamerasystem
CH401506A (de) Verfahren und Einrichtung zur Entfernungsmessung
AT399222B (de) Interferometrische einrichtung zur messung der lage eines reflektierenden objektes
DE102013207654B4 (de) Lichtlaufzeitkamerasystem
CH668488A5 (de) Elektrooptisches distanzmessgeraet.
DE102015225192A1 (de) Lichtlaufzeitmesssystem mit Überreichweitenerkennung
DE102020123537B4 (de) Lichtlaufzeitkamerasystem
DE102013207650B4 (de) Lichtlaufzeitkamerasystem
DE2058418C3 (de) Vorrichtung zur Bestimmung der Lage eines Gegenstandes mittels zweier sich schneidender elektromagnetischer Strahlungsbündel
DE102016222334B4 (de) Verfahren zur Ermittlung von Systemparametern eines Lichtlaufzeitkamerasystems
DE10157810A1 (de) Dreidimensionale optische Formerfassung durch Intensitätskodierung der Pulslaufzeit
DE4318623A1 (de) Entfernungsmeßgerät nach dem Laufzeitprinzip
DE102019124142A1 (de) Lichtlaufzeitkamerasystem
DE102021132522A1 (de) Vorrichtung zur Erfassung einer Amplitude und einer Phase eines Wellenfelds

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8122 Nonbinding interest in granting licences declared
8131 Rejection