DE19833207A1 - Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes - Google Patents
Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen AbstandsbildesInfo
- Publication number
- DE19833207A1 DE19833207A1 DE19833207A DE19833207A DE19833207A1 DE 19833207 A1 DE19833207 A1 DE 19833207A1 DE 19833207 A DE19833207 A DE 19833207A DE 19833207 A DE19833207 A DE 19833207A DE 19833207 A1 DE19833207 A1 DE 19833207A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- integration time
- light
- integration
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/487—Extracting wanted echo signals, e.g. pulse detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Verfahren und Vorrichtung zur Erzeugung dreidimensionaler Abstandsbilder von räumlichen Objekten, wobei eine Kurzzeitbelichtung, beispielsweise durch Laserdioden des Objektes durchgeführt wird. Als Bildsensor wird ein Sensor mit hoher Lichtempfindlichkeit eingesetzt, der pixelauflösend und wahlfrei auslesbar ist, sowie eine für jedes Pixel einstellbare Integrationszeit aufweist. Durch Auswertung der zurückgestreuten Laserimpulse in zwei Integrationsfenster mit unterschiedlichen Integrationszeiten und durch Mittelung über mehrere Laserpulse lassen sich dreidimensionale Abstandsbilder mit hoher Zuverlässigkeit in beispielsweise maximal 5 ms aufnehmen.
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur
Aufnahme eines dreidimensionalen Abstandsbildes von räumli
chen Objekten.
Dreidimensional aufnehmende und verarbeitende Sensorsysteme
gewinnen für verschiedenste Aufgabenstellungen in der indu
striellen Technik zunehmend an Bedeutung. Bekannte optische
Radarsysteme, wie beispielsweise Laserradar basieren entweder
auf dem Prinzip der Laserimpuls-Laufzeitmessung oder auf der
Bestimmung der Phasendifferenz von moduliertem Laserlicht zur
Ableitung der Objektdistanz. Zum Aufbau eines dreidimensiona
len bildgebenden Systemes sind zusätzliche mechanische
Scaneinrichtungen erforderlich. Dies führt zu einem relativ
teuren elektronischen und mechanischen Aufwand, der den Ein
satz solcher dreidimensionalen Systeme auf wenige Spezialan
wendungen beschränkt.
Es sind Verfahren bekannt, die eine CCD-Kamera (Charged Cou
pled Device) einsetzen, wobei für diese Halbeleiterkameras
die Fernseh(TV)- Norm herangezogen wird. Somit lassen sich
lediglich relativ lange Auslesezeiten erzielen.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur
Aufnahme eines dreidimensionalen Abstandsbildes, sowie eine
Vorrichtung dazu zur Verfügung zu stellen, womit ein schnel
les und kostengünstiges Verfahren zur Gewinnung eines dreidi
mensionalen Abstandsbildes für räumliche Objekte ohne aufwen
dige mechanische Einrichtungen bereitgestellt wird.
Die Lösung dieser Aufgabe geschieht durch die Merkmale des
Anspruchs 1, 2 bzw. des Anspruches 23.
Der Erfindung liegt die Erkenntnis zugrunde, daß unter Ein
satz eines bildpunktauflösenden (pixelauflösenden) und wahl
frei auslesbaren optoelektronischen Sensors, dessen Integra
tionszeit punktweise einstellbar ist, eine extrem schnelle
Bildaufnahme eines dreidimensionalen Abstandsbildes möglich
ist. Dazu wird das Objekt mit einem oder mehreren sehr kurzen
Lichtimpulsen beleuchtet, woraufhin Lichtimpulse der gleichen
Länge vom Objekt zurückgestreut werden. Diese zurückgestreu
ten Lichtimpulse werden über eine entsprechende Optik auf den
optoelektronischen Chip geleitet. Aufgrund der unterschiedli
chen Abstände unterschiedlicher Objektpunkte vom Sensor wer
den mit jeweiligen Orten korrespondierende zurückgestreute
Lichtimpulse zu jeweils unterschiedlichen Zeiten am Sensor
ankommen. Für eine Abstandsmessung wird ein Zeitmeßfenster
geöffnet, dessen Zeitdauer einer vorbestimmbaren Integrati
onszeit entspricht. Die Integrationszeit ist kleiner oder
gleich der Länge der ausgesandten und damit auch der Länge
der reflektierten Lichtimpulse. Somit ist sichergestellt, daß
am Ende der Integrationszeit ein einheitliches Abschneiden
der zurückgestreuten Lichtimpulse am Sensor erfolgt. Die
zeitverzögert eintreffenden Lichtimpulse je Bildpunktelement
werden hinten abgeschnitten, so daß aufgrund der unterschied
lichen Ladungen im Raster des optoelektronischen Sensors die
unterschiedlichen Laufzeiten in Ladungsunterschiede umgesetzt
werden können. Daraus läßt sich ein dreidimensionales Ab
standsbild errechnen.
Die Erfindung kann auch derart gestaltet sein, daß anstelle
eines Lichtimpulses mit definierter Länge lediglich ein
Lichtintensitätsanstieg mit steiler Flanke Verwendung findet,
der entsprechend am Sensor aufgenommen und ausgewertet wird.
Dadurch wird das Meßergebnis unabhängig vom Verlauf der ab
fallenden Flanke des Lichtimpulses. Zum anderen kann der Ein
fluß eines Dunkelstromes, der beispielsweise durch die Be
triebswärme eines Sensorelementes erzeugt wird, sowie der An
teil des Umgebungslichtes (Störlicht) exakt für jeden Bild
punkt kompensiert werden. Durch insgesamt drei aufeinander
folgende Messungen werden zunächst der Dunkelstrom und das
Umgebungslicht erfaßt, danach werden in Zusammenhang mit ei
ner Belichtung die vom Objekt reflektierten und am Sensor
empfangenen Lichtmengen in Form des Sensorsignalses inte
griert, was anschließend mit einer höheren Integrationszeit
wiederholt wird. Daraus läßt sich durch entsprechende Inter
polation die Laufzeit des Lichtes für jeden Objektpunkt er
mitteln. Dies eröffnet die Verwendung von geringeren Licht
leistungen bei gleichzeitig genauer Messung der Laufzeit und
damit der Entfernung zum Objekt.
In einer vorteilhaften Ausgestaltung der Erfindung werden mit
einer sehr langen Integrationszeit sämtliche Lichtimpulse
gleichzeitig mit der zuerst beschriebenen Messung oder zeit
versetzt danach mit ihrer vollständigen Länge aufgenommen.
Dies wird zur Normierung benutzt, so daß Unterschiede im Re
flexionsverhalten des Objektes erkannt und ausgeglichen wer
den können.
Weitere vorteilhafte Ausgestaltungen können den Unteransprü
chen entnommen werden.
Die wesentlichen Vorteile der Erfindung liegen darin, daß
beispielsweise mechanische Shutter entfallen. Es können ex
trem kurze Bildaufnahmezeiten realisiert werden. Der verwen
dete optoelektronische Sensor wird allgemein als CMOS-Sensor
bezeichnet, wobei dies lediglich die technologische Bezeich
nung des Halbleiterbauelementes ist. Mit einem derartigen
Sensor lassen sich minimale Integrationszeiten von 50 bis 30
nsec realisieren (Jitter bei weniger als 0,1%). Die techni
sche Entwicklung schreitet bei den Integrationszeiten noch
voran.
In folgenden werden anhand von schematischen Figuren Ausfüh
rungsbeispiele beschrieben.
Fig. 1 zeigt das Funktionsprinzip zur Erfassung eines drei
dimensionalen Abstandsbildes mit einem CMOS-Sensor,
Fig. 2 zeigt die schematische Darstellung einer zeitlichen
Verschiebung zweier Lichtimpulse deren zugehörige Objektpunk
te einen unterschlichen Abstand zum CMOS-Sensor besitzen, re
lativ zu Integrationsfenstern,
Fig. 3 zeigt zwei Varianten des Sensors zur gleichzeitigen
Erfassung von dreidimensionalen Abstandsbildern und Intensi
täts- bzw. Grauwertbildern mit einem CMOS-Sensor,
Fig. 4 zeigt die schematische Darstellung der Fahrzeuginnen
raumüberwachung mit einem dreidimensionalen CMOS-Sensor.
Fig. 5 zeigt die Entfernungsmessung mit integrierendem CMOS-
Bildsensor, wobei das Signal der sendeseitigen Laserdiode und
die empfangsseitigen Sensorsignale dargestellt sind,
Fig. 6 zeigt die Entfernungsmessung mit integrierendem CMOS-
Bildsensor, wobei in Fig. 6a der sendeseitige Betrieb einer
Laserdiode und in Fig. 6b die durch fortlaufende Integration
am Sensor erzielten Sensorsignale dargestellt sind,
Fig. 7 zeigt in zeitlicher Korrelation die Zusammenhänge
zwischen sendeseitiger Beleuchtung und empfangsseitiger De
tektion eines Laserimpulses, wobei die in der Fig. 7 unten
dargestellten Meßsignale in Verbindung mit einer kurzen Inte
grationszeit und einer sehr langen Integrationszeit darge
stellt werden,
Fig. 8 zeigt in zeitlicher Korrelation die sende- und emp
fangsseitige Darstellung eines Laserimpulses, wobei auf die
Beleuchtungssteuerung des Sensors bezogen zwei unterschiedli
che kurze Integrationszeiten vorgesehen sind.
Es wird ein Verfahren zur seriellen oder gleichzeitigen Er
fassung bzw. Erzeugung eines Intensitäts- und eines dreidi
mensionalen Abstandsbildes räumlicher Objekt mit einem opto
elektronischen Sensor unter Kurzzeitbelichtung beschrieben.
Das Verfahren nutzt die Laufzeitunterschiede der von den
dreidimensionalen Objekten zurückgestreuten Lichtimpulse bei
der bildpunktsynchronen (pixelsynchronen) Detektion am Sensor
innerhalb kurzer Integrationszeiten. Dabei wird ein CMOS-
Sensor eingesetzt. Dieser Sensor besitzt eine Lichtempfind
lichkeit von beispielsweise 1 mLux. Weiterhin weist er eine
hohe Intensitätsdynamik von bis zu 107 auf, einen wahlfreien
Zugriff auf die einzelnen Bildpunkte (Pixel), sowie eine ein
stellbare Integrationszeit (Sample & Hold). Für die Messung
der Ladungsmenge Q(t) bei Belichtung am einzelnen Bildpunkt.
Gegenüber Verfahren die eine CCD-Kamera einsetzen, lassen
sich besondere Vorteile erzielen, wie beispielsweise die pa
rallele Erfassung von Intensitäts- und dreidimensionalen Bil
dern, sowie die Realisierung kurzer Bildaufnahmezeiten, die
deutlich unter den Auslesezeiten von CCD-Kameras liegen. Wei
terhin benötigt der CMOS keine aufwendigen mechanischen Shut
ter und es müssen auch keine leistungsstarken Laserlichtquel
len für die Kurzzeitbelichtung eingesetzt werden.
Das Verfahren ist insbesondere für die Erkennung von Personen
und Bewegungsabläufen in der Raumüberwachung, beispielsweise
Fahrzeuginnen/-außenüberwachung der Automatisierung von Kra
nanlagen sowie der Navigation geeignet.
Die wesentlichen Funktionsmerkmale werden anhand von Fig. l
erläutert. Zunächst wird für die Beleuchtung der zu erfassen
den räumlichen Objekte mit kurzen Lichtimpulsen beispielswei
se <100 ns gesorgt. Die Beleuchtung kann mit Laserlicht,
wie beispielsweise mit einer gepulsten Laserdiode oder mit
Lichtquellen, wie beispielsweise einer gepulsten LED-Diode
erfolgen. Das Verfahren ist unabhängig vom Winkel der Be
leuchtung, die nicht unbedingt zentral zur allgemeinen Detek
tionsrichtung erfolgen muß. So ist beispielsweise auch bei
koaxialer Beleuchtung und Detektion der Einsatz eines Ring
lichtes denkbar. Die in Fig. 1 dargestellte Anordnung dient
nur zur schematischen Verdeutlichung des Funktionsprinzips.
Eine erste Bildaufnahme A wird mit einer kurzen Integrations
zeit ΔA CMOS-Sensor verbunden. Die von den Objektpunkten G
der dreidimensionalen Szene zurückgestreuten Lichtimpulse 3
der Länge ΔL (<100 nsec) werden an den zugehörigen Bildpunk
ten 9 des CMOS-Sensors innerhalb einer eingestellten kurzen
Integrationszeit ΔA≦ΔL erfaßt. Durch einen elektronischen
Triggerimpuls wird dabei ein fester zeitlicher Bezug zwischen
ausgesandtem Lichtimpuls 2 und dem Öffnen des Integrations
zeitfensters am CMOS-Sensor hergestellt. Aufgrund der Lauf
zeit des Lichtes ergibt sich je nach Objektabstand R eine un
terschiedliche zeitliche Verschiebung
τ = 2R/Vc (Vc = Lichtgeschwindigkeit)
zwischen ausgesandtem und am CMOS-Sensor detektierten Lich
timpuls. Die am Bildpunkt innerhalb der Integrationszeit ΔA
gemessene Ladung QA wird dadurch vom Abstand R zwischen Sen
sor und Objektpunkt G abhängig. Siehe hierzu Fig. 2.
QA∞I0 * OR(ΔL - (2R/VC - tD)) (1)
I0 Intensität des ausgesandten Lichtimpulses
OR Oberflächenreflexionskoeffizient am Objektpunkt G
tD Triggerpunktzeitverzögerung zwischen ausgesandtem Lichtim puls und Start des Integrationsfensters am CMOS-Sensor.
OR Oberflächenreflexionskoeffizient am Objektpunkt G
tD Triggerpunktzeitverzögerung zwischen ausgesandtem Lichtim puls und Start des Integrationsfensters am CMOS-Sensor.
Für Objektpunkte G mit gleichem Oberflächenreflektionskoeffi
zienten OR wird abhängig von ihrem Abstand R eine unter
schiedliche Ladung QA am zugehörigen Bildpunkt des CMOS-
Sensors gemessen. Damit werden kleine Laufzeitunterschiede
der Lichtimpulse in Ladungsänderungen QA transformiert, so
daß eine integrierte Ladung für jeweils einen Objektpunkt G
mit seinem jeweiligen Abstand R(1,. . .) stellvertretend ist. Diese
können bei einem CMOS-Sensor sehr empfindlich und mit hoher
Dynamik detektiert werden. Üblicherweise besitzen die Objekte
einer dreidimensionalen Szene eine unterschiedliche Oberflä
chenreflexion.
Es wird daher zur Normierung des Abstandsbildes noch eine
zweite Bildaufnahme QB durchgeführt, die nur von der Oberflä
chereflexion der Objekte der dreidimensionalen Szene abhängig
ist.
Die Durchführung einer zweiten Bildaufnahme B mit langer In
tegrationszeit ΔB dient zur Normierung der Oberflächenrefle
xion der dreidimensionalen Szene, wobei im Prinzip das her
kömmliche Intensitäts- oder Grauwertbild verwendet wird.
Hierzu wird am CMOS-Sensor bei einer zweiten Bildaufnahme ei
ne Integrationszeit ΔB eingestellt, die sehr groß gegenüber
der Länge eines Beleuchtungslichtimpulses ist; ΔB»ΔL z. B.
1 Mikrosekunde. Jetzt werden alle zurückgestreuten Lichtim
pulse 3 unabhängig von ihrer Laufzeit in vollem Umfang am
CMOS-Sensor detektiert. Die an einem Bildpunkt gemessene La
dung QB gibt sich zu
QB∞ID.OR.ΔL. (2)
Das erhaltene Bild ist nur von der Beleuchtungsintensität I0,
dem Oberflächenreflektions-Koeffizienten OR des zugehörigen
Objektpunktes, sowie der Lichtimpulslänge ΔL abhängig.
Die Erzeugung des zweidimensionalen Abstandsbildes QR ge
schieht durch die Berechnung aus der Differenz und Normierung
von Bildaufnahme A und B bzw. QA und QB
QR = (QA - QB)/QB (3)
Aus Gleichung (1) und (2) folgt mit td = 0 die Gleichung
QR∞ - 2R/(VC * ΔL) (4)
Dieser Wert kann nach Auslesen und Digitalisieren sowie zu
sätzlicher Skalierung für alle Bildpunkte direkt als Ab
standsbild QR ausgegeben werden. Ist die Triggerverzögerungs
zeit td ungleich 0, so addiert sich zu allen Punkten des Ab
standsbildes QR ein konstanter Offset
RD = tD/(VC * ΔL) (5)
RD = Abstandswert bei tD (Ladungsoffset)
Die gleichzeitige Aufnahme von Intensitäts- und dreidimen sinalem Bild bezieht sich auf eine Ausführung einer örtlich und zeitlich parallelen Erfassung von Intensitäts-und Ab standswerten. Hierzu wird eine Chiparchitektur und pixelbezo gene Integrationszeit derart gewählt, daß direkt benachbarte Pixel A und Pixel B entsprechend der Fig. 3 auf dem CMOS- Sensor die zurückgestreuten Lichtimpulse 3 der dreidimensio nalen Szene gleichzeitig mit kurzer Integrationszeit ΔA≦ΔL (für Pixel A) aufnehmen und mit langer Integrationszeit ΔB « ΔL (für Pixel B) erfassen. Durch eine auf dem Chip inte grierte elektronische Schaltung kann dann direkt das zweidi mensionale Abstandsbild
Die gleichzeitige Aufnahme von Intensitäts- und dreidimen sinalem Bild bezieht sich auf eine Ausführung einer örtlich und zeitlich parallelen Erfassung von Intensitäts-und Ab standswerten. Hierzu wird eine Chiparchitektur und pixelbezo gene Integrationszeit derart gewählt, daß direkt benachbarte Pixel A und Pixel B entsprechend der Fig. 3 auf dem CMOS- Sensor die zurückgestreuten Lichtimpulse 3 der dreidimensio nalen Szene gleichzeitig mit kurzer Integrationszeit ΔA≦ΔL (für Pixel A) aufnehmen und mit langer Integrationszeit ΔB « ΔL (für Pixel B) erfassen. Durch eine auf dem Chip inte grierte elektronische Schaltung kann dann direkt das zweidi mensionale Abstandsbild
QR = (QA - QB)/QB (6)
der zugeordneten Pixel A und B berechnet und ausgegeben wer
den.
Fig. 3 zeigt dazu schematisch zwei mögliche Anordnungen auf
dem CMOS-Sensor für die parallele Erfassung von Intensitäts
und dreidimensionalem Abstandsbild. Weitere Varianten hierzu
sind möglich. Die gleichzeitige Erfassung von Intensitäts-
und dreidimensionalem Abstandsbild ist besonders für die Ana
lyse bewegter dreidimensionaler Szenen von Bedeutung, bei
spielsweise die Erfassung von Personengestik oder die Objekt
verfolgung. Weitere besondere Kennzeichen der Erfindung sind:
- - Falls erforderlich kann eine zusätzliche Normierung des dreidimensionalen Abstandsbildes bezüglich Umgebungslicht durchgeführt werden. Hierzu wird zunächst ohne Beleuchtung der dreidimensionalen Szene bzw. des Objekts die Ladung eines Bildpunktes mit kurzer und langer Integrationszeit erfaßt und von den mit Beleuchtung gemessenen Ladungen QA und QB abgezo gen. Anschließend erfolgt die Berechnung des Abstandsbildes QR
- - Durch zeitliche Mittelung der Signale mehrerer Lichtim pulse kann eine Erhöhung der Empfindlichkeit des Verfahrens gegenüber dem Rauschen bei geringen zurückgestreuten Lichtin tensitäten erreicht werden.
- - Die Meßunsicherheit für die Abstandsbestimmung hängt vom Signal/Rauschverhalten des CMOS-Sensors ab. Erwartet wird das Laufzeitunterschiede zwischen 0,1 ns noch detektiert werden können. Daraus folgt eine Meßunsicherheit von weniger als 3 cm für die Abstandsbestimmung.
Die wesentlichen Verwendungen des beschriebenen Verfahrens
und der beschriebenen Vorrichtung betreffen die Überwachung
von Innenräumen, insbesondere in Fahrzeugen in Verbindung mit
volumetrischen Auswerteverfahren. Die Aufgabe der optischen
Innenraummüberwachung bei Fahrzeugen ist die Erkennung der
Sitzbelegung, wie beispielsweise Personen, Kindersitz, son
stige Objekte, die Erfassung der Sitzposition von Personen
sowie der Diebstahlschutz, d. h. das unzulässige Eindringen in
das Fahrzeuginnere von außen. Die Erkennung von Personen und
ihrer Sitzposition ist für die stufenweise Auslösung eines
Airbaigs (smart Airbaig) von hoher sicherheitsrelevanter Be
deutung und muß im Kollisionsfall sehr zuverlässig und in
kurzen Meßzeiten erfolgen. Die Erfindung erfüllt diese Anfor
derungen durch eine schnelle und zuverlässige Erzeugung eines
dreidimensionalen Abstandsbildes QR im Fahrzeuginneren, wobei
volumentrische Auswerteverfahren eingesetzt werden. Dabei
werden aus den Abstandswerten R in einem Raumwinkelelement Ω
die von Objekten 1 besetzten Nettovolumenanteile im Fahrzeu
ginnenraum als Differenz zu den Abstandswerten bei unbesetz
tem Fahrzeuginneren bestimmmt (siehe hierzu Fig. 4).
Das Verfahren und die Vorrichtung liefern weitere wesentliche
Vorteile, wie:
- - Schnelle, globale Erfassung der aktuellen Sitzbelegung
durch Differenzbildung eines dreidimensionalen Abstandsbildes
vom Fahrzeuginneren ohne Objekte (dreidimensionales Referenz
bild QRO) und dem aktuell auszuwertenden dreidimensionalen
Abstandsbild mit einer Person oder einem sonstigen Objekt QRP
auf einem Sitz. Dabei gilt für das Nettovolumen Vp der Sitz
belegung:
Vp = ∫ΩR0(Ω) * dF - ∫ΩRp(Ω) * dF (7),
wobei R0 die Abstandswerte ohne Person bzw. sonstigem Objekt und Rp die Abstandswerte mit Person bzw. sonstigem Objekt auf dem Sitz sind und dF eine differenzielle Fläche bezeichnet. - - Die adaptive Ermittlung der Sitzbelegung aus der Berech nung der relativen Abstandsänderungen vor und nach dem Ein steigen einer Person ins Fahrzeug kann durchgeführt werden. Durch Anwendung regressiver und stochiastischer Auswertever fahren kann die Zuverlässigkeit der Differenzbestimmung noch weitergesteigert werden.
- - Die Größenbestimmung der erfaßten Objekte und globale Un terscheidung von Objekten über Volumen-Vergleichsklassen ist möglich.
- - Räumliche Zuordnung von besetzten Volumenanteilen ist mög lich
- - Bestimmung der räumlichen Extrempositionen (x,y,z) des be setzten Volumens im Innenraum für die Steuerung der Airbaig Auslösung kann bestimmt werden.
- - Volumetrische Verfolgung von Bewegungsabläufen im Raum bei zeitlich aufeinanderfolgenden Bildaufnahmen und Differenzbil dung. Erkennuung von Personen und Gestik aus der Bewegungsa nalyse.
Diese integrale Volumenbetrachtung ermöglicht eine globale
Erfassung von Objekten und Positionen im Raum und ist nicht
auf die Bestimmung von Merkmalen, wie beispielsweise Kontu
ren, Ecken, Kanten im Bild zur Objekterkennung angewiesen.
Die Auswertezeiten können für die dreidimensionale Bildauf
nahme und volumetrische Auswertung unter 10 ms liegen.
Als Anwendungsgebiet des beschriebenen Verfahrens und der
Vorrichtung kommt insbesondere ein Fahrzeuginnenraum infrage.
Dabei wird für die dreidimensionale Bildaufnahme mit LED-
Lichtimpulsen von beispielsweise 50 ns (Nanosekunden) ein Ob
jekt belichtet. Die Integrationszeiten am CMOS-Sensor werden
für die Bildaufnahme QA zu 50 ns und für die Bildaufnahme QB
zu 0,5 µs, gewählt. Die zu erfassende Szenendynamik im Fahr
zeuginneren soll 200 : 1 betragen. Die Abstandswerte R sollen
mit einer Meßunsicherheit <15 cm (entsprechender Laufzeitun
terschied eines Lichtimpulses = 1 ns) in einem Meßbereich bis
1,5 m (Laufzeit 10 ns) erfaßt werden.
Mit diesen Anforderungen wird am CMOS Sensor eine Intensi
tätsdynamik von (10×200 =) 2000 : 1 erforderlich. Die digi
tale Erfassung des dreidimensionalen Abstandsbildes QR wird
damit durch einen 12 Bit A/D Wandler gewährleistet. Für eine
Sensorortsauflösung von 50×50 Bildpunkten werden für die
Bildaufnahmen A mit kurzer Integrationszeit und B mit langer
Integrationszeit maximal 104 Ausleseoperationen notwendig,
die bei Auslesefrequenzen, von beispielsweise 2 MHz zu einer
gesamten Bildaufnahmezeit für das dreidimensionale Abstands
bild von maximal 5 ms führen. Die Berechnung der Differenzvo
lumina aus den 2500 Abstandswerten ist mit einem schnellen
Prozessor, wie beispielsweise einem Pentium mit 200 Mhz in
weiteren 5 ms ohne Schwierigkeit ausführbar.
In Fig. 4 wird ein Schema für eine Anwendung der Erfindung
in Fahrzeuginnenräumen dargestellt. Die Pfeile mit gepunkte
ten Linien sind stellvertretend für einen nichtbelegten Sitz
und die mit durchgezogenen Linien für einen mit einer Person
belegten Sitz. Für die globale Objekterkennung und Positions
bestimmung wird der umhüllende Nettovolumenanteil aus den
dreidimensionalen Abstandsdaten bei besetztem und bei unbe
setztem Fahrzeug bestimmt. Das Nettovolumen Vp einer Person
oder eines sonstigen Objektes auf einem Autositz berechnet
sich nach Gleichung (7).
Das bisher beschriebene Verfahren zur Aufnahme eines Ab
standsbildes beruht auf einem Differenzverfahren, wobei die
Laufzeit T0=Up/Uges*ΔA beträgt, wobei:
T0 = Lichtlaufzeit, ΔA = Integrationszeit,
Uges = Meßsignal bei ΔB minus Dunkelstromanteil bei ΔB,
Up = Uges minus (Meßsignalanteil bei ΔA minus Dunkelstroman teil bei ΔA).
T0 = Lichtlaufzeit, ΔA = Integrationszeit,
Uges = Meßsignal bei ΔB minus Dunkelstromanteil bei ΔB,
Up = Uges minus (Meßsignalanteil bei ΔA minus Dunkelstroman teil bei ΔA).
Die weitere hauptsächliche Lösung der Erfindung, die in Fig.
8 dargestellt wird, wertet die aufgenommenen Meßsignale
am Sensor mittels eines Interpolationsverfahrens aus. Dabei
ergibt sich die Laufzeit des Lichtes von der Lichtquelle über
das Objekt bis zum Sensor durch den Schnittpunkt der Kurve
des Meßsignales in Fig. 8, geschnitten mit der Kurve des
Dunkelstromanteiles. Für die Lichtlaufzeit gilt
T0 = 2R / Vc,
woraus sich der Abstandswert R ergibt.
Die bei zahlreichen industriellen Anwendungen der Bildverar
beitung notwendige dreidimensionale Bilddatenerfassung ist
insbesondere für die automatische Überwachung von Räumen,
beispielsweise Autoinnenraum, notwendig. An die Genauigkeit
des Entfernungsbildes/Abstandsbildes werden nicht allzu hohe
Anforderungen gestellt. Entfernungsbilder mit etwa 1000
Bildlpunkten wären für eine Raumüberwachung in den meisten
Fällen schon ausreichend. Übliche Triangulationsverfahren
scheiden dabei aus Kostengründen, sowie wegen der großen not
wendigen Meßbasis, aus.
Sowohl die Beleuchtungsart entsprechend Fig. 7, als auch die
Beleuchtungsart entsprechend Fig. 8 lassen eine schnelle und
kostengünstige Aufnahme eines dreidimensionalen Abstandsbil
des verwirklichen. Das Verfahren, bei dem über die Interpola
tion die Laufzeit des Lichtes, die zur Auswertung notwendig
ist, für jeden Bildelementpunkt des Sensors 4 erzielt wird,
ist beispielhaft in Fig. 8 dargestellt. Hierin wird anstatt
eines Lichtimpulses mit definierter Länge nur ein Lichtinten
sitätsanstieg mit steiler Flanke ausgewertet. Der am Sensor
empfangene vom Objekt reflektierte Laserpuls wird durch zwei
unterschiedliche Integrationszeiten abgeschnitten. Dadurch
wird zum einen das Meßsignal unabhängig vom Verlauf der ab
fallenden Flanke des Lichtimpulses und zum anderen kann der
Einfluß des Dunkelstromes, der beispielsweise durch die Be
triebswärme eines Sensors entsteht, und des Umgebungslichtes
exakt für jeden Bildpunkt kompensiert werden.
Fig. 5 zeigt die Entfernungsmessung mit integrierendem CMOS-
Bildsensor. In dem Zeit t/Sensorspannung U-Diagramm ist zum
einen die sendeseitig beleuchtende Laserdiode bzw. deren
rechteckförmig ausgebildeter Lichtimpuls dargestellt. Darun
ter sind die empfangsseitig aufgenommenen Meßsignale darge
stellt. Die durchgezogene Linie, die vom Ursprung des Koordi
natensystems zu der Spannung Ud führt, ist die erste durch
geführte Messung und beinhaltet einen Dunkelstromanteil plus
einen Fremdlichtanteil. Ud wird zur Integrationszeit T2, die
größer als eine andere Integrationszeit T1 ist, aufgenommen.
Im Anschluß daran wird das Objekt 1 mit der Laserdiode be
leuchtet, woraufhin zunächst in den einzelnen Bildpunkten nur
die Dunkelströme verbunden mit dem Fremdlichtanteil inte
griert werden. Wenn aufgrund der Lichtlaufzeit T0 zusätzli
ches Licht vom Objektpunkt G zurückgestreut wird, so steigt
das Meßsignal vom Zeitpunkt T0 entsprechend der Helligkeit
des jeweiligen Bildpunktes stärker an. Nach einer bestimmten
Integrationszeit T1 wird dann die Spannung U1 für alle Bild
punkte ausgelesen und abgespeichert. Der gleiche Vorgang wie
derholt sich nun mit der bereits aus der ersten Dunkelstrom
messung bekannten Integrationszeit T2. T1 beträgt beispiels
weise 30 ns und T2 beträgt beispielsweise 60 ns. An den Stel
len, an denen das Meßsignal die Zeiten T1 bzw. T2 schneidet,
was gleichbedeutend ist mit einem Abschneiden des empfangenen
Lichtimpulses, ergibt sich der Punkt U1 bzw. der Punkt U2.
Es gilt die Beziehung ΔU=U2-U1. Die Lichtlaufzeit T0 er
rechnet sich nach der Formel die in Fig. 5 dargestellt ist.
Verlängert man eine Gerade durch die Punkte U2 und U1, so
schneidet diese Gerade nach unten hin die Dunkelstrom dar
stellende Gerade zwischen dem Ursprung des Koordinatensystems
und der Spannung UD. Am Schnittpunkt kann die Lichtlaufzeit
T0 abgelesen werden. Sämtliche Werte für U1 und U2 bzw. ΔU
werden ebenfalls für alle Bildpunkte ausgelesen und gespei
chert. Aus den für jeden Bildpunkt abgespeicherten Spannungen
UD, U1, U2 und ΔU in Verbindung mit den vorgegebenen Integra
tionszeiten T1 und T2 läßt sich eindeutig und exakt für jeden
Bildpunkt die Laufzeit T0 berechnen, auch wenn relativ hohe
Dunkelstromanteile UD vorliegen. Dabei gilt:
T0 = U1.ΔT - ΔU.T1/(UD.ΔT/T2 - ΔU).
Dies eröffnet die Verwendung von geringeren Lichtleistungen
bei gleichzeitig genauer Messung der Laufzeit und damit der
Entfernung zum Objekt.
Eine vorteilhafte Ausgestaltung sieht vor, daß zur Verringe
rung der aus Kostengründen meist kritischen Laserleistung ei
ne mehrfache Wiederholung des oben beschriebenen Vorgangs in
hintereinander geschieht, wobei sich die ergebenden Werte für
U1, UD, und ΔU erst am Ende der Mehrfachbelichtung von
CMOS-Sensoren auslesen lassen und digitalisiert werden. Siehe
hierzu die Fig. 6a und 6b. Eine analoge Mittelwertbildung
für die Mehrfachbelichtung auf dem CMOS-Sensor vermeidet auch
die relativ langen Auslesezeiten bei einer späteren digitalen
Mittelung. Eine adaptive Einstellung auf die jeweilige Reflek
tivität des Objektes im Hinblick auf die Optimierung des Si
gnal-/Rauschverhältnisses der Meßwerte wird, dadurch erzielt,
daß in wenigen Testbildern die Zahl der Belichtungen solange
gesteigert wird, bis sich in einer gewissen Menge von Bild
punkten des Gesamtbildes eine Sättigung der Werte n(U1+ΔU)
einstellt; mit n = Anzahl der Mehrfachbelichtungen.
Durch die beschriebenen Schritte wird ermöglicht, daß eine
exakte Berechnung von der Lichtlaufzeit T0 bei vorliegendem
Dunkelstrom und Umgebungslicht möglich ist, daß das Auslesen
des Signales vom CMOS-Sensor erst nach der Mehrfachbelichtung
geschieht, woraufhin sich die Digitalisierung anschließt und
daß eine adaptive Einstellung der Mehrfachbelichtung entspre
chend der Objektreflektivität vorgenommen werden kann. Durch
diese Maßnahmen kann eine bisher notwendige Laserleistung um
den Faktor 10 bis 20 gesenkt werden bzw. die Genauigkeit er
höht werden.
Das in dem Bildsensor verwendete Sensorprinzip ist ein inte
grierendes Verfahren, beispielsweise auf der Basis einer
n⁺-p -Photodiode. Diese Photodiode ist Bestandteil eines
elektronischen Kurzzeitintegrators, der weiterhin einen Kon
densator und mehrere Transistoren aufweist. Die Verschaltung
geschieht derart, daß sich beispielsweise die Kapazität des
Kondensators in Abhängigkeit von dem auf die Photodiode ein
fallenden Licht entlädt. Dies wird über einen sog. Shutter-
Transistor gesteuert. Im Anschluß daran wird beispielsweise
das in dem Kondensator verbleibende Potential ausgelesen. Um
eine synchronisierte Beleuchtung zu gewährleisten wird die
Zeitsteuerung des elektronischen Kurzzeitintegrators ein sog.
Strobe-Signal zur Ansteuerung einer Lichtquelle erzeugen. Für
jedes Bildpunktelement des Sensors 4 wird ein derartiger
elektronischer Kurzzeitintegrator (elektronischer Shutter)
verwendet. Anstelle der am Ende einer Messung im Kondensator
verbleibenden Potential kann auch das bereits abgeführte Po
tential als Meßwert herangezogen werden.
In Fig. 6a sind mehrere hintereinander geschaltete sendesei
tige Laserimpulse dargestellt. In Fig. 6b wird beispielhaft
die Integrationszeit T1 in Verbindung mit der jeweiligen
Spannung U1 und dem Dunkelstromanteil UD dargestellt. Glei
ches kann für T2, U2 und UD aufgetragen werden. Es ergibt
sich für jede Belichtung bzw. Mehrfachbelichtung ein Wert für
die Lichtlaufzeit T0.
In der Gegenüberstellung der Fig. 7 und 8 ist zu erkennen,
daß das Interpolationsverfahren entsprechend Fig. 8 kürzere
Beleuchtungszeiten aufweist. Die jeweils in der Mitte darge
stellten Shutter-Zeiten von beispielsweise 30 ns und 60 ns in
Fig. 8 und 60 ns in Verbindung mit einer sehr langen La
serimpulszeit in Fig. 7 sollen die Integrationszeiten am
Sensor festlegen. In der Fig. 7 ist im oberen Teil das zeit
liche Verhältnis zwischen der sendeseitigen Beleuchtung und
dem empfangsseitigen Eintreffen des Laserimpulses darge
stellt. Die in den Fig. 5 bis 8 jeweils dargestellten Aus
führungsbeispiele weisen keine Triggerverzögerungszeit auf.
Dies bedeutet, daß empfangsseitig mit dem Beginn des Senso
rimpulses das Meßfenster geöffnet wird. Dies bedeutet für die
Darstellung in Fig. 7, daß der Kurzzeit-Shutter (60 ns) den
empfangenen Laserpuls, jeweils bezogen auf einen Objekt- bzw.
Bildelementpunkt, bei der Zeit ΔA abschneidet. Die Zeitdauer
des Lichtimpulses ist sende- wie empfangsseitig ΔL. Es wird
deutlich, das auf Grund von verschiedenen Lichtlaufzeiten der
elektronische Kurzzeitintegrator am Sensor jeweils ein Poten
tial als Meßwert liefern wird, daß in Abhängigkeit von der
Laufzeit ab dem Zeitpunkt T0 bis zum Ende von und ΔA aufin
tegriert wird. Die Integrationszeit ΔB wird im Falle der Fig.
7 zum Ausgleich von Reflektivitätsunterschieden am Objekt
1 verwendet. Dabei wird ein Dunkelstrom und Fremdlichtanteil
ermittelt, der entsprechend vom Meßsignal abgezogen werden
kann.
Die Fig. 8 zeigt eine der Fig. 7 entsprechende Darstellung,
wobei der obere Teil identisch dem der Fig. 7 ist. In der
Mitte der Fig. 8 werden zwei Kurzzeit-Shutterzeiten darge
stellt. Diese werden in ähnlicher Weise wie in Fig. 7 zum
Abschneiden der am Sensor 4 eintreffenden Laserimpulse ver
wendet. Somit ergeben sich eine kürzere Integrationszeit T
und eine längere Integrationszeit T2. Das Meßsignal weist in
den Fig. 7 und 8 einen Dunkelstrom und Fremdlichtanteil
auf. Das Meßsignal ergibt sich somit aus der Addition des
Photostromanteils zu dem Dunkelstrom und Fremdlichtanteil.
Anders ausgedrückt kann der Photostromanteil ermittelt wer
den, indem vom Meßsignal der Dunkelstrom und Fremdlichtanteil
angezogen wird. Die Lichtlaufzeit T0 ergibt sich an der Stel
le auf der Zeitachse an der das Meßsignal bei einem eingehen
den reflektierten Lichtimpuls von dem normalen Verlauf des
Dunkelstrom- und Fremdlichtanteils abweist, weil der Photo
stromanteil nicht mehr Null ist. Die Auswertung, die die
Lichtlaufzeit T0 ergibt, ist in Zusammenhang mit Fig. 5 be
schrieben worden.
Claims (26)
1. Verfahren zur Aufnahme eines dreidimensionalen Abstands
bildes von räumlichen Objekten unter Einsatz eines bild
punktauflösenden optoelektronischen Sensors (4) mit an jedem
Bildpunktelement (9) vorhandenen elektronischen Kurzzeitinte
grator, wobei eine Integrationszeit einstellbar ist, beste
hend aus folgenden Schritten:
- - das Objekt (1) wird mit mindestens einem Lichtimpuls (2) vorgegebener Zeitdauer ΔL beleuchtet,
- - von Objektpunkten (G) zurückgestreute Lichtimpulse (3) werden an zugehörigen Bildpunkten des Sensors (4) innerhalb einer vorgegebenen kurzen Integrationszeit ΔA, mit ΔA≦ΔL, erfaßt, wobei der Zeitpunkt für den Beginn der Integrations zeit ΔA vor dem Eintreffen des ersten zurückgestreuten Lich timpulses (3) liegt, der dem nächstliegenden Objektpunkt (G) entspricht,
- - aus den entsprechend ihrer unterschiedlichen Laufzeiten resultierenden unterschiedlichen aufgenommenen Intensitäten der zurückgestreuten Lichtimpulse (3) werden Abstandswerte ermittelt.
2. Verfahren zur Aufnahme eines dreidimensionalen Abstands
bildes von räumlichen Objekten unter Einsatz eines bild
punktauflösenden optoelektronischen Sensors (4) mit an jedem
Bildpunktelement (9) vorhandenem elektronischen Kurzzeitinte
grator, wobei eine Integrationszeit einstellbar ist, beste
hend aus folgenden Schritten:
- - Aufnahme und Integration des einen Dunkelstrom und Umge bungslicht darstellenden Sensorsignales von dem Beginn der Aufnahme und Integration bis zu einer vorgegebenen Integrati onszeit T2,
- - Beginn der Belichtung eines Objektes (1) durch eine Be leuchtungseinrichtung (5) zeitgleich mit dem Beginn der Auf nahme und der Integration des Sensorsignales am Sensor (4), wobei innerhalb eines Lichtintensitätsanstieges des am Sensor (4) empfangenen Lichtes bis zu einer Integrationszeit T1 in tegriert wird und T1 kleiner ist als T2,
- - wiederholte Belichtung des Objektes (1) durch die Beleuch tungseinrichtung (5) mit zeitgleichem Beginn der Aufnahme und der Integration des Sensorsignales am Sensor (4), wobei in nerhalb des Lichtintensitätsanstieges des am Sensor (4) emp fangenen Lichtes bis zu der Integrationszeit T2 integriert wird,
- - zu den Zeitpunkten T1 und T2 wird für alle Bildpunkte der jeweils integrierte Wert des Sensorsignales ausgelesen und gespeichert und
- - aus den gespeicherten Werten werden für jeden Bildpunkt die Laufzeit T0 des Lichtes von der Beleuchtungseinrichtung (5) über das Objekt (1) bis zum Sensor (4), sowie ein ent sprechender Abstandswert, berechnet.
3. Verfahren nach Anspruch 2, worin die einzelnen Verfahrens
schritte zur Gewinnung eines Sensorsignales jeweils mehrfach
wiederholt werden, und die daraus resultierenden Signale für
jeden einzelnen Bildpunkt integriert werden und sich erst in
Anschluß an die Mehrfachbelichtung das Auslesen, Abspeichern
und Auswerten der Sensorsignale anschließt.
4. Verfahren nach Anspruch 2 oder 3, worin abgespeicherte
Werte digitalisiert werden.
5. Verfahren nach einem der Ansprüche 3 oder 4, worin eine
adaptive Einstellung auf die jeweilige Reflektivität eines
Objektes (1), dadurch geschieht, daß die Zahl der Mehrfachbe
lichtungen solange gesteigert wird, bis in einer vorgegebenen
Menge von Bildpunkten des Gesamtbildes sich eine Sättigung
der integrierten Intensitätswerte des Sensorsignales bei T1
und bei T2 einstellt.
6. Verfahren nach Anspruch 1 oder 2, worin die Integrations
zeit bildpunktweise einstellbar ist.
7. Verfahren nach einem der Ansprüche 1 oder 6, worin zur
gleichzeitigen oder nachfolgenden Normierung der Oberflächen
reflexion des Objektes (1) zusätzlich sämtliche zurückge
streuten Lichtimpulse (3) mit einer langen Integrationszeit
ΔB»ΔL vollständig erfaßt werden.
8. Verfahren nach einem der Ansprüche 1 oder 6-7, worin der
Beginn einer Integrationszeit ΔA;ΔB mit einer Triggerimpuls
verzögerung gegenüber dem Sendeimpuls verbunden ist.
9. Verfahren nach einem der Ansprüche 1 oder 6-8, worin eine
Integrationszeit ΔA weniger als 100 ns beträgt.
10. Verfahren nach einem der Ansprüche 1 oder 6-9, worin eine
Integrationszeit ΔB ca. 1µs beträgt.
11. Verfahren nach einem der vorhergehenden Ansprüche, worin
eine Lichtimpulslänge weniger, als 100 ns beträgt.
12. Verfahren nach einem der vorhergehenden Ansprüche, worin
zur gleichzeitigen Aufnahme eines dreidimensionalen Bildes
und eines Grauwertbildes auf dem Sensor (4) zeilenweise un
terschiedliche Integrationszeiten ΔA bzw. ΔB oder T1 bzw. T2
eingestellt werden.
13. Verfahren nach einem der vorhergehenden Ansprüche, worin
zur gleichzeitigen Aufnahme eines dreidimensionalen und eines
Grauwertbildes auf dem Sensor (4) bildpunktweise unterschied
liche Integrationszeiten ΔA bzw. ΔB oder T1 bzw. T2 abwechselnd
eingestellt werden.
14. Verfahren nach einem der vorhergehenden Ansprüche, worin
das Objekt (1) mit Lichtimpulsen eines Lasers oder einer ge
pulsten Leuchtdiode beleuchtet wird.
15. Verfahren nach einem der vorhergehenden Ansprüche, worin
der Sensor (4) wahlfrei auslesbar ist.
16. Verfahren nach einem der vorhergehenden Ansprüche, worin
der Sensor (4) ein CMOS Sensor ist.
17. Verfahren nach einem der vorhergehenden Ansprüche, worin
die Entfernung vom Sensor (4) zu mindestens einem Punkt als
Referenzabstand bekannt ist.
18. Verfahren nach Anspruch 17, worin beim Einsatz in einem
Fahrzeug ein Referenzpunkt am Türrahmen positioniert ist.
19. Verfahren nach einem der vorhergehenden Ansprüche, worin
eine Erkennung von statischen Objekten und/oder von Bewe
gungsabläufen vorgenommen wird.
20. Verfahren nach Anspruch 19, worin Objekte überwacht wer
den, wie Gegenstände oder Personen in Räumen oder in Fahrzeu
ge.
21. Verfahren nach Anspruch 19, worin Fahrzeuge oder Kranan
lagen überwacht werden und/oder worin eine allgemeine Positi
onsbestimmung in einem Navigationssystem vorgenommen wird.
22. Verfahren nach Anspruch 19 oder 20, worin eine Sitzbele
gung und/oder eine Sitzposition beispielsweise einer Person
in einem Fahrzeug erkannt wird.
23. Vorrichtung zur Aufnahme eines dreidimensionalen Abstand
bildes, bestehend aus:
- - einer Beleuchtungseinrichtung (5), die Lichtimpulse (2) über eine Optik (6) auf ein Objekt (1) sendet,
- - einem optoelektronischen Sensor (4) mit einer vorgeschal teten Optik (7), der die vom Objekt (1) zurückgestreuten Lichtimpulse (3) detektiert, wobei der Sensor (4) durch eine Vielzahl von Bilpunktelementen (9) bildpunktauflösend aufge baut und wahlfrei auslesbar ist und eine Integrationszeit bildpunktweise einstellbar ist,
- - einer Triggereinrichtung (8) zur zeitlichen Abstimmung zwischen Beleuchtungseinrichtung (5) und Sensor (4),
- - einer Recheneinheit zur Berechnung eines dreidimensionalen Bildes aus entsprechenden Ladungen der Bildpunktelemente (9) des Sensors (4).
24. Vorrichtung nach Anspruch 23, worin an den Bildpunktele
menten (9) des Sensors (4) zeilen- oder spaltenweise abwech
selnd eine kurze Integrationszeit ΔA bzw. T1 und eine lange
Integrationszeit ΔB bzw. T2 eingestellt ist.
25. Vorrichtung nach Anspruch 23, worin an den Bildpunktele
menten (9) des Sensors (4) abwechselnd kurze und lange Inte
grationszeiten ΔA bzw. ΔB oder T1 bzw. T2 eingestellt sind.
26. Vorrichtung nach einem der Ansprüche 23-25, worin die Re
cheneinheit auf dem Sensor (4) angeordnet ist.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19833207A DE19833207A1 (de) | 1998-07-23 | 1998-07-23 | Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes |
KR10-2000-7007058A KR100508277B1 (ko) | 1997-12-23 | 1998-11-14 | 3차원 거리 측정 이미지를 기록하기 위한 방법 및 장치 |
US09/581,091 US6373557B1 (en) | 1997-12-23 | 1998-11-14 | Method and apparatus for picking up a three-dimensional range image |
DE59809883T DE59809883D1 (de) | 1997-12-23 | 1998-11-14 | Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes |
JP2000526831A JP3860412B2 (ja) | 1997-12-23 | 1998-11-14 | 3次元距離画像を撮影するための方法及び装置 |
PCT/DE1998/003344 WO1999034235A1 (de) | 1997-12-23 | 1998-11-14 | Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes |
EP98962257A EP1040366B1 (de) | 1997-12-23 | 1998-11-14 | Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19833207A DE19833207A1 (de) | 1998-07-23 | 1998-07-23 | Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19833207A1 true DE19833207A1 (de) | 2000-02-17 |
Family
ID=7875085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19833207A Withdrawn DE19833207A1 (de) | 1997-12-23 | 1998-07-23 | Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19833207A1 (de) |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000050268A1 (en) * | 1999-02-24 | 2000-08-31 | Siemens Automotive Corporation | Vehicle occupant sensing system |
DE10124160A1 (de) * | 2001-05-17 | 2002-12-05 | Sick Ag | Verfahren und optoelektronischer Sensor zur Erzeugung eines entfernungsauflösenden Bildes |
DE20213915U1 (de) | 2002-08-07 | 2003-02-06 | Sauermann, Hans, 85119 Ernsgaden | Sicherheitsvorrichtung für ein Fahrzeug |
WO2003016944A2 (de) * | 2001-08-06 | 2003-02-27 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes |
WO2004021546A2 (de) * | 2002-08-09 | 2004-03-11 | Conti Temic Microelectronic Gmbh | Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb |
EP1221582A3 (de) * | 2001-01-05 | 2004-12-29 | Leuze electronic GmbH + Co. | Optoelektronische Vorrichtung |
DE10254778B3 (de) * | 2002-11-22 | 2005-02-03 | Bundesrepublik Deutschland, vertr. d. d. Bundesministerium für Wirtschaft und Arbeit, dieses vertr. d. d. Präsidenten der Physikalisch-Technischen Bundesanstalt | Verfahren und Vorrichtung zur hochgenauen Bestimmung der Topographie einer Oberfläche |
DE10360174A1 (de) * | 2003-12-20 | 2005-07-21 | Leuze Lumiflex Gmbh + Co. Kg | Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel |
DE102004035886A1 (de) * | 2004-07-23 | 2006-02-16 | Daimlerchrysler Ag | Gurtbringersystem in einem Fahrzeug |
DE10063697B4 (de) * | 2000-12-20 | 2006-07-13 | Siemens Ag | Verfahren und Vorrichtung zur Erfassung der Position eines Elements in einem Fahrzeug, insbesondere für Insassenschutzsysteme |
DE10360789B4 (de) * | 2003-12-23 | 2007-03-15 | Leuze Lumiflex Gmbh + Co. Kg | Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel |
WO2007036557A1 (de) * | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Vorrichtung und verfahren zur aufnahme von abstandsbildern |
WO2007036553A1 (de) * | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Vorrichtung und verfahren zur aufnahme von entfernungsbildern |
DE102007011417A1 (de) | 2007-03-08 | 2008-09-11 | Siemens Ag | Vorrichtung und Verfahren zur Entfernungsbestimmung |
DE102008018718A1 (de) | 2008-04-14 | 2009-10-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optischer Abstandsmesser und Verfahren zur optischen Abstandsmessung |
EP2290393A2 (de) | 2009-08-14 | 2011-03-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Konzept zur optischen Abstandsmessung |
EP2191298B1 (de) * | 2007-09-28 | 2013-11-27 | Odos imaging Ltd | Verfahren zum bestimmen eines abstands mittels eines optoelektronischen bildsensors |
WO2015071358A1 (en) * | 2013-11-14 | 2015-05-21 | Odos Imaging Ltd. | Method for illuminating an object |
WO2015092794A1 (en) | 2013-12-17 | 2015-06-25 | Brightway Vision Ltd. | System for controlling pixel array sensor with independently controlled sub pixels |
DE102014007466B3 (de) * | 2014-05-19 | 2015-08-06 | Elmos Semiconductor Aktiengesellschaft | Vorrichtung und Verfahren zur Vebesserung des Cpk-Wertes bei der Fertigung von CMOS Fotodedektoren für die schnelle Lichtlaufzeitmessung |
DE102015002282A1 (de) | 2014-05-09 | 2015-11-12 | Elmos Semiconductor Aktiengesellschaft | Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung |
DE102016108496A1 (de) | 2016-03-01 | 2017-09-07 | Elmos Semiconductor Aktiengesellschaft | Optische Laufzeitmessung nach einem ein- oder zweistufigen Delta-Sigma-Verfahren und zugehörige Vorrichtung |
WO2017148772A1 (de) | 2016-03-01 | 2017-09-08 | Elmos Semiconductur Aktiengesellschaft | Vorrichtung zur wandlung einer zeitlichen verzögerung eines zwischen einem sender und einem empfänger übertragenen signals |
DE102017207317A1 (de) * | 2017-05-02 | 2018-11-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zur Ermittlung eines Abstands zu einem Objekt sowie entsprechendes Verfahren |
US10401483B2 (en) | 2014-12-02 | 2019-09-03 | Odos Imaging Ltd. | Distance measuring device and method for determining a distance |
JPWO2018181250A1 (ja) * | 2017-03-30 | 2020-02-06 | パナソニックIpマネジメント株式会社 | 距離画像生成装置及び距離画像生成方法 |
US10557703B2 (en) | 2014-11-21 | 2020-02-11 | Rockwell Automation Limited | Distance measuring device and method for determining a distance |
EP2114630B2 (de) † | 2007-03-06 | 2020-02-26 | Rockwell Automation Safety AG | Sensorvorrichtung sowie anlage mit einem förderer und einer sensorvorrichtung |
DE102021100913A1 (de) | 2020-03-10 | 2021-09-16 | Elmos Semiconductor Se | Pixel für ein bildgebendes Lichtlaufzeitmesssystem mit einer verbesserten Fertigungsausbeute |
EP4102252A1 (de) * | 2021-06-11 | 2022-12-14 | K. A. Schmersal Holding GmbH & Co. KG | Sichere überwachung eines schutzbereichs mittels einer tof-kamera |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0151257A2 (de) * | 1984-02-08 | 1985-08-14 | Dornier Gmbh | Verfahren zur Erzeugung von Entfernungsbildern |
DE3732347C1 (de) * | 1987-09-25 | 1989-03-16 | Messerschmitt Boelkow Blohm | Entfernungsbild-Sensor |
DE3839513A1 (de) * | 1988-11-23 | 1990-05-31 | Messerschmitt Boelkow Blohm | Bildsensor |
DE19619186C1 (de) * | 1996-05-02 | 1998-01-02 | Pco Computer Optics Gmbh | Verfahren sowie System zur Erstellung eines Bildes |
DE19757595A1 (de) * | 1997-12-23 | 1999-07-01 | Siemens Ag | Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes |
-
1998
- 1998-07-23 DE DE19833207A patent/DE19833207A1/de not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0151257A2 (de) * | 1984-02-08 | 1985-08-14 | Dornier Gmbh | Verfahren zur Erzeugung von Entfernungsbildern |
DE3732347C1 (de) * | 1987-09-25 | 1989-03-16 | Messerschmitt Boelkow Blohm | Entfernungsbild-Sensor |
DE3839513A1 (de) * | 1988-11-23 | 1990-05-31 | Messerschmitt Boelkow Blohm | Bildsensor |
DE19619186C1 (de) * | 1996-05-02 | 1998-01-02 | Pco Computer Optics Gmbh | Verfahren sowie System zur Erstellung eines Bildes |
DE19757595A1 (de) * | 1997-12-23 | 1999-07-01 | Siemens Ag | Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes |
Cited By (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6441363B1 (en) | 1999-02-24 | 2002-08-27 | Siemens Vdo Automotive Corporation | Vehicle occupant sensing system |
WO2000050268A1 (en) * | 1999-02-24 | 2000-08-31 | Siemens Automotive Corporation | Vehicle occupant sensing system |
DE10063697B4 (de) * | 2000-12-20 | 2006-07-13 | Siemens Ag | Verfahren und Vorrichtung zur Erfassung der Position eines Elements in einem Fahrzeug, insbesondere für Insassenschutzsysteme |
US7376248B2 (en) | 2000-12-20 | 2008-05-20 | Siemens Aktiengesellschaft | Method and device for detecting an object in a vehicle in particular for occupant protection systems |
EP1221582A3 (de) * | 2001-01-05 | 2004-12-29 | Leuze electronic GmbH + Co. | Optoelektronische Vorrichtung |
DE10124160B4 (de) * | 2001-05-17 | 2006-04-06 | Sick Ag | Verfahren zur Erzeugung eines entfernungsauflösenden Bildes und optoelektronischer Sensor |
DE10124160A1 (de) * | 2001-05-17 | 2002-12-05 | Sick Ag | Verfahren und optoelektronischer Sensor zur Erzeugung eines entfernungsauflösenden Bildes |
WO2003016944A3 (de) * | 2001-08-06 | 2003-10-09 | Siemens Ag | Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes |
WO2003016944A2 (de) * | 2001-08-06 | 2003-02-27 | Siemens Aktiengesellschaft | Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes |
DE20213915U1 (de) | 2002-08-07 | 2003-02-06 | Sauermann, Hans, 85119 Ernsgaden | Sicherheitsvorrichtung für ein Fahrzeug |
WO2004021546A2 (de) * | 2002-08-09 | 2004-03-11 | Conti Temic Microelectronic Gmbh | Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb |
WO2004021546A3 (de) * | 2002-08-09 | 2004-06-03 | Conti Temic Microelectronic | Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb |
DE10254778B3 (de) * | 2002-11-22 | 2005-02-03 | Bundesrepublik Deutschland, vertr. d. d. Bundesministerium für Wirtschaft und Arbeit, dieses vertr. d. d. Präsidenten der Physikalisch-Technischen Bundesanstalt | Verfahren und Vorrichtung zur hochgenauen Bestimmung der Topographie einer Oberfläche |
DE10360174A1 (de) * | 2003-12-20 | 2005-07-21 | Leuze Lumiflex Gmbh + Co. Kg | Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel |
US8698893B2 (en) | 2003-12-20 | 2014-04-15 | Leuze Lumiflex Gmbh & Co. Kg | Device for monitoring an area of coverage on a work tool |
DE10360174B4 (de) * | 2003-12-20 | 2007-03-08 | Leuze Lumiflex Gmbh + Co. Kg | Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel |
DE10360789B4 (de) * | 2003-12-23 | 2007-03-15 | Leuze Lumiflex Gmbh + Co. Kg | Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel |
US7412861B2 (en) | 2003-12-23 | 2008-08-19 | Leuze Lumiflex Gmbh & Co., Ltd. | Device for monitoring an area of coverage on a work tool |
DE102004035886B4 (de) * | 2004-07-23 | 2006-10-12 | Daimlerchrysler Ag | Gurtbringersystem in einem Fahrzeug |
DE102004035886A1 (de) * | 2004-07-23 | 2006-02-16 | Daimlerchrysler Ag | Gurtbringersystem in einem Fahrzeug |
WO2007036553A1 (de) * | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Vorrichtung und verfahren zur aufnahme von entfernungsbildern |
WO2007036557A1 (de) * | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Vorrichtung und verfahren zur aufnahme von abstandsbildern |
US7791714B2 (en) | 2005-09-30 | 2010-09-07 | Siemens Aktiengesellschaft | Device and method for recording distance-measuring images |
EP2114630B2 (de) † | 2007-03-06 | 2020-02-26 | Rockwell Automation Safety AG | Sensorvorrichtung sowie anlage mit einem förderer und einer sensorvorrichtung |
DE102007011417A1 (de) | 2007-03-08 | 2008-09-11 | Siemens Ag | Vorrichtung und Verfahren zur Entfernungsbestimmung |
WO2008107374A1 (de) * | 2007-03-08 | 2008-09-12 | Siemens Aktiengesellschaft | Vorrichtung und verfahren zur entfernungsbestimmung |
EP2191298B1 (de) * | 2007-09-28 | 2013-11-27 | Odos imaging Ltd | Verfahren zum bestimmen eines abstands mittels eines optoelektronischen bildsensors |
DE102008018718A1 (de) | 2008-04-14 | 2009-10-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optischer Abstandsmesser und Verfahren zur optischen Abstandsmessung |
DE102008018718B4 (de) * | 2008-04-14 | 2010-02-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optischer Abstandsmesser und Verfahren zur optischen Abstandsmessung |
EP2290393A2 (de) | 2009-08-14 | 2011-03-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Konzept zur optischen Abstandsmessung |
DE102009037596A1 (de) | 2009-08-14 | 2011-05-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Konzept zur optischen Abstandsmessung |
WO2015071358A1 (en) * | 2013-11-14 | 2015-05-21 | Odos Imaging Ltd. | Method for illuminating an object |
US10241204B2 (en) | 2013-11-14 | 2019-03-26 | Odos Imaging Ltd. | Method for illuminating an object |
CN106133552A (zh) * | 2013-11-14 | 2016-11-16 | 欧都思影像公司 | 用于照明物体的方法 |
WO2015092794A1 (en) | 2013-12-17 | 2015-06-25 | Brightway Vision Ltd. | System for controlling pixel array sensor with independently controlled sub pixels |
EP3085076A4 (de) * | 2013-12-17 | 2017-08-16 | Brightway Vision Ltd. | System zur steuerung eines pixelanordnungssensors mit unabhängig gesteuerten subpixeln |
DE102015002271A1 (de) | 2014-05-09 | 2015-11-26 | Elmos Semiconductor Aktiengesellschaft | Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung |
DE102015002283A1 (de) | 2014-05-09 | 2015-11-12 | Elmos Semiconductor Aktiengesellschaft | Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung und objektabhängiger Ortsauflösung mehrerer verschiedener Einzelscanner |
DE102015002270A1 (de) | 2014-05-09 | 2015-11-26 | Elmos Semiconductor Aktiengesellschaft | Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen, Vermessen und Klassifizieren von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung |
DE102015002282A1 (de) | 2014-05-09 | 2015-11-12 | Elmos Semiconductor Aktiengesellschaft | Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung |
DE102015002283B4 (de) | 2014-05-09 | 2023-01-19 | Elmos Semiconductor Se | Vorrichtung zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung und objektabhängiger Ortsauflösung mehrerer verschiedener Einzelscanner |
DE102014007466B3 (de) * | 2014-05-19 | 2015-08-06 | Elmos Semiconductor Aktiengesellschaft | Vorrichtung und Verfahren zur Vebesserung des Cpk-Wertes bei der Fertigung von CMOS Fotodedektoren für die schnelle Lichtlaufzeitmessung |
US10557703B2 (en) | 2014-11-21 | 2020-02-11 | Rockwell Automation Limited | Distance measuring device and method for determining a distance |
US10401483B2 (en) | 2014-12-02 | 2019-09-03 | Odos Imaging Ltd. | Distance measuring device and method for determining a distance |
US11187792B2 (en) | 2016-03-01 | 2021-11-30 | Elmos Semiconductor Se | Device for converting a temporal delay of a signal transmitted between a transmitter and a receiver |
DE102016108496A1 (de) | 2016-03-01 | 2017-09-07 | Elmos Semiconductor Aktiengesellschaft | Optische Laufzeitmessung nach einem ein- oder zweistufigen Delta-Sigma-Verfahren und zugehörige Vorrichtung |
WO2017148772A1 (de) | 2016-03-01 | 2017-09-08 | Elmos Semiconductur Aktiengesellschaft | Vorrichtung zur wandlung einer zeitlichen verzögerung eines zwischen einem sender und einem empfänger übertragenen signals |
JPWO2018181250A1 (ja) * | 2017-03-30 | 2020-02-06 | パナソニックIpマネジメント株式会社 | 距離画像生成装置及び距離画像生成方法 |
DE102017207317A1 (de) * | 2017-05-02 | 2018-11-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zur Ermittlung eines Abstands zu einem Objekt sowie entsprechendes Verfahren |
DE102017207317B4 (de) | 2017-05-02 | 2022-03-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung zur Ermittlung eines Abstands zu einem Objekt sowie entsprechendes Verfahren |
US11016184B2 (en) | 2017-05-02 | 2021-05-25 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Device for determining a distance from an object, and corresponding method |
DE102021100931A1 (de) | 2020-03-10 | 2021-09-16 | Elmos Semiconductor Se | Verfahren zur Herstellung eines Pixels für ein bildgebendes Lichtlaufzeitmesssystem mit einer verbesserten Fertigungsausbeute |
DE102021100913A1 (de) | 2020-03-10 | 2021-09-16 | Elmos Semiconductor Se | Pixel für ein bildgebendes Lichtlaufzeitmesssystem mit einer verbesserten Fertigungsausbeute |
EP4102252A1 (de) * | 2021-06-11 | 2022-12-14 | K. A. Schmersal Holding GmbH & Co. KG | Sichere überwachung eines schutzbereichs mittels einer tof-kamera |
DE102021115221A1 (de) | 2021-06-11 | 2022-12-15 | K.A. Schmersal Holding Gmbh & Co. Kg | Sichere Überwachung eines Schutzbereichs mittels einer ToF-Kamera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1040366B1 (de) | Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes | |
DE19757595C2 (de) | Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes | |
DE19833207A1 (de) | Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes | |
EP3185038B1 (de) | Optoelektronischer sensor und verfahren zur messung einer entfernung | |
EP2290393B1 (de) | Konzept zur optischen Abstandsmessung | |
EP1423731B1 (de) | Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes | |
EP2263103B1 (de) | Optischer abstandsmesser und verfahren zur optischen abstandsmessung | |
DE102005046990B4 (de) | Fahrzeugradarsystem | |
EP3418767A1 (de) | Optoelektronischer sensor und verfahren zur messung der entfernung zu einem objekt | |
EP2708913A1 (de) | Optoelektronischer Sensor und Verfahren zur Objekterfassung | |
DE202013101039U1 (de) | Optoelektronischer Sensor zur Entfernungsmessung | |
DE112015004407T5 (de) | Hintergrundlicht-Detektion für optische Navigationssysteme | |
WO2007134730A1 (de) | Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles | |
DE102006029025A1 (de) | Vorrichtung und Verfahren zur Abstandsbestimmung | |
DE102010061382A1 (de) | Optoelektronischer Sensor und Verfahren zur Erfassung und Abstandsbestimmung von Objekten | |
DE212017000247U1 (de) | LiDAR-Vorrichtung | |
DE102009045323A1 (de) | Optisches Entfernungsmessgerät mit Kalibrierungseinrichtung | |
DE102017113674A1 (de) | Optoelektronischer Sensor und Verfahren zur Messung der Entfernung zu einem Objekt | |
DE102014108310B4 (de) | Optisches Laufzeitsystem | |
DE112020006097T5 (de) | Ebs/tof/rgb-kamera zur intelligenten überwachung und detektion von eindringlingen | |
DE112020004621T5 (de) | Lichtdetektierende Vorrichtung und System | |
EP1636610B1 (de) | Erfassung elektromagnetischer strahlung | |
DE102005046950B3 (de) | Vorrichtung und Verfahren zur Aufnahme von Abstandsbildern | |
DE10153742A1 (de) | Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes | |
EP2978216B1 (de) | Verfahren zur Erkennung von Bewegungsunschärfe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8139 | Disposal/non-payment of the annual fee |