DE19833207A1 - Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes - Google Patents

Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes

Info

Publication number
DE19833207A1
DE19833207A1 DE19833207A DE19833207A DE19833207A1 DE 19833207 A1 DE19833207 A1 DE 19833207A1 DE 19833207 A DE19833207 A DE 19833207A DE 19833207 A DE19833207 A DE 19833207A DE 19833207 A1 DE19833207 A1 DE 19833207A1
Authority
DE
Germany
Prior art keywords
sensor
integration time
light
integration
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19833207A
Other languages
English (en)
Inventor
Guenter Doemens
Peter Mengel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19833207A priority Critical patent/DE19833207A1/de
Priority to KR10-2000-7007058A priority patent/KR100508277B1/ko
Priority to US09/581,091 priority patent/US6373557B1/en
Priority to DE59809883T priority patent/DE59809883D1/de
Priority to JP2000526831A priority patent/JP3860412B2/ja
Priority to PCT/DE1998/003344 priority patent/WO1999034235A1/de
Priority to EP98962257A priority patent/EP1040366B1/de
Publication of DE19833207A1 publication Critical patent/DE19833207A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Verfahren und Vorrichtung zur Erzeugung dreidimensionaler Abstandsbilder von räumlichen Objekten, wobei eine Kurzzeitbelichtung, beispielsweise durch Laserdioden des Objektes durchgeführt wird. Als Bildsensor wird ein Sensor mit hoher Lichtempfindlichkeit eingesetzt, der pixelauflösend und wahlfrei auslesbar ist, sowie eine für jedes Pixel einstellbare Integrationszeit aufweist. Durch Auswertung der zurückgestreuten Laserimpulse in zwei Integrationsfenster mit unterschiedlichen Integrationszeiten und durch Mittelung über mehrere Laserpulse lassen sich dreidimensionale Abstandsbilder mit hoher Zuverlässigkeit in beispielsweise maximal 5 ms aufnehmen.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes von räumli­ chen Objekten.
Dreidimensional aufnehmende und verarbeitende Sensorsysteme gewinnen für verschiedenste Aufgabenstellungen in der indu­ striellen Technik zunehmend an Bedeutung. Bekannte optische Radarsysteme, wie beispielsweise Laserradar basieren entweder auf dem Prinzip der Laserimpuls-Laufzeitmessung oder auf der Bestimmung der Phasendifferenz von moduliertem Laserlicht zur Ableitung der Objektdistanz. Zum Aufbau eines dreidimensiona­ len bildgebenden Systemes sind zusätzliche mechanische Scaneinrichtungen erforderlich. Dies führt zu einem relativ teuren elektronischen und mechanischen Aufwand, der den Ein­ satz solcher dreidimensionalen Systeme auf wenige Spezialan­ wendungen beschränkt.
Es sind Verfahren bekannt, die eine CCD-Kamera (Charged Cou­ pled Device) einsetzen, wobei für diese Halbeleiterkameras die Fernseh(TV)- Norm herangezogen wird. Somit lassen sich lediglich relativ lange Auslesezeiten erzielen.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Aufnahme eines dreidimensionalen Abstandsbildes, sowie eine Vorrichtung dazu zur Verfügung zu stellen, womit ein schnel­ les und kostengünstiges Verfahren zur Gewinnung eines dreidi­ mensionalen Abstandsbildes für räumliche Objekte ohne aufwen­ dige mechanische Einrichtungen bereitgestellt wird.
Die Lösung dieser Aufgabe geschieht durch die Merkmale des Anspruchs 1, 2 bzw. des Anspruches 23.
Der Erfindung liegt die Erkenntnis zugrunde, daß unter Ein­ satz eines bildpunktauflösenden (pixelauflösenden) und wahl­ frei auslesbaren optoelektronischen Sensors, dessen Integra­ tionszeit punktweise einstellbar ist, eine extrem schnelle Bildaufnahme eines dreidimensionalen Abstandsbildes möglich ist. Dazu wird das Objekt mit einem oder mehreren sehr kurzen Lichtimpulsen beleuchtet, woraufhin Lichtimpulse der gleichen Länge vom Objekt zurückgestreut werden. Diese zurückgestreu­ ten Lichtimpulse werden über eine entsprechende Optik auf den optoelektronischen Chip geleitet. Aufgrund der unterschiedli­ chen Abstände unterschiedlicher Objektpunkte vom Sensor wer­ den mit jeweiligen Orten korrespondierende zurückgestreute Lichtimpulse zu jeweils unterschiedlichen Zeiten am Sensor ankommen. Für eine Abstandsmessung wird ein Zeitmeßfenster geöffnet, dessen Zeitdauer einer vorbestimmbaren Integrati­ onszeit entspricht. Die Integrationszeit ist kleiner oder gleich der Länge der ausgesandten und damit auch der Länge der reflektierten Lichtimpulse. Somit ist sichergestellt, daß am Ende der Integrationszeit ein einheitliches Abschneiden der zurückgestreuten Lichtimpulse am Sensor erfolgt. Die zeitverzögert eintreffenden Lichtimpulse je Bildpunktelement werden hinten abgeschnitten, so daß aufgrund der unterschied­ lichen Ladungen im Raster des optoelektronischen Sensors die unterschiedlichen Laufzeiten in Ladungsunterschiede umgesetzt werden können. Daraus läßt sich ein dreidimensionales Ab­ standsbild errechnen.
Die Erfindung kann auch derart gestaltet sein, daß anstelle eines Lichtimpulses mit definierter Länge lediglich ein Lichtintensitätsanstieg mit steiler Flanke Verwendung findet, der entsprechend am Sensor aufgenommen und ausgewertet wird. Dadurch wird das Meßergebnis unabhängig vom Verlauf der ab­ fallenden Flanke des Lichtimpulses. Zum anderen kann der Ein­ fluß eines Dunkelstromes, der beispielsweise durch die Be­ triebswärme eines Sensorelementes erzeugt wird, sowie der An­ teil des Umgebungslichtes (Störlicht) exakt für jeden Bild­ punkt kompensiert werden. Durch insgesamt drei aufeinander­ folgende Messungen werden zunächst der Dunkelstrom und das Umgebungslicht erfaßt, danach werden in Zusammenhang mit ei­ ner Belichtung die vom Objekt reflektierten und am Sensor empfangenen Lichtmengen in Form des Sensorsignalses inte­ griert, was anschließend mit einer höheren Integrationszeit wiederholt wird. Daraus läßt sich durch entsprechende Inter­ polation die Laufzeit des Lichtes für jeden Objektpunkt er­ mitteln. Dies eröffnet die Verwendung von geringeren Licht­ leistungen bei gleichzeitig genauer Messung der Laufzeit und damit der Entfernung zum Objekt.
In einer vorteilhaften Ausgestaltung der Erfindung werden mit einer sehr langen Integrationszeit sämtliche Lichtimpulse gleichzeitig mit der zuerst beschriebenen Messung oder zeit­ versetzt danach mit ihrer vollständigen Länge aufgenommen. Dies wird zur Normierung benutzt, so daß Unterschiede im Re­ flexionsverhalten des Objektes erkannt und ausgeglichen wer­ den können.
Weitere vorteilhafte Ausgestaltungen können den Unteransprü­ chen entnommen werden.
Die wesentlichen Vorteile der Erfindung liegen darin, daß beispielsweise mechanische Shutter entfallen. Es können ex­ trem kurze Bildaufnahmezeiten realisiert werden. Der verwen­ dete optoelektronische Sensor wird allgemein als CMOS-Sensor bezeichnet, wobei dies lediglich die technologische Bezeich­ nung des Halbleiterbauelementes ist. Mit einem derartigen Sensor lassen sich minimale Integrationszeiten von 50 bis 30 nsec realisieren (Jitter bei weniger als 0,1%). Die techni­ sche Entwicklung schreitet bei den Integrationszeiten noch voran.
In folgenden werden anhand von schematischen Figuren Ausfüh­ rungsbeispiele beschrieben.
Fig. 1 zeigt das Funktionsprinzip zur Erfassung eines drei­ dimensionalen Abstandsbildes mit einem CMOS-Sensor,
Fig. 2 zeigt die schematische Darstellung einer zeitlichen Verschiebung zweier Lichtimpulse deren zugehörige Objektpunk­ te einen unterschlichen Abstand zum CMOS-Sensor besitzen, re­ lativ zu Integrationsfenstern,
Fig. 3 zeigt zwei Varianten des Sensors zur gleichzeitigen Erfassung von dreidimensionalen Abstandsbildern und Intensi­ täts- bzw. Grauwertbildern mit einem CMOS-Sensor,
Fig. 4 zeigt die schematische Darstellung der Fahrzeuginnen­ raumüberwachung mit einem dreidimensionalen CMOS-Sensor.
Fig. 5 zeigt die Entfernungsmessung mit integrierendem CMOS- Bildsensor, wobei das Signal der sendeseitigen Laserdiode und die empfangsseitigen Sensorsignale dargestellt sind,
Fig. 6 zeigt die Entfernungsmessung mit integrierendem CMOS- Bildsensor, wobei in Fig. 6a der sendeseitige Betrieb einer Laserdiode und in Fig. 6b die durch fortlaufende Integration am Sensor erzielten Sensorsignale dargestellt sind,
Fig. 7 zeigt in zeitlicher Korrelation die Zusammenhänge zwischen sendeseitiger Beleuchtung und empfangsseitiger De­ tektion eines Laserimpulses, wobei die in der Fig. 7 unten dargestellten Meßsignale in Verbindung mit einer kurzen Inte­ grationszeit und einer sehr langen Integrationszeit darge­ stellt werden,
Fig. 8 zeigt in zeitlicher Korrelation die sende- und emp­ fangsseitige Darstellung eines Laserimpulses, wobei auf die Beleuchtungssteuerung des Sensors bezogen zwei unterschiedli­ che kurze Integrationszeiten vorgesehen sind.
Es wird ein Verfahren zur seriellen oder gleichzeitigen Er­ fassung bzw. Erzeugung eines Intensitäts- und eines dreidi­ mensionalen Abstandsbildes räumlicher Objekt mit einem opto­ elektronischen Sensor unter Kurzzeitbelichtung beschrieben. Das Verfahren nutzt die Laufzeitunterschiede der von den dreidimensionalen Objekten zurückgestreuten Lichtimpulse bei der bildpunktsynchronen (pixelsynchronen) Detektion am Sensor innerhalb kurzer Integrationszeiten. Dabei wird ein CMOS- Sensor eingesetzt. Dieser Sensor besitzt eine Lichtempfind­ lichkeit von beispielsweise 1 mLux. Weiterhin weist er eine hohe Intensitätsdynamik von bis zu 107 auf, einen wahlfreien Zugriff auf die einzelnen Bildpunkte (Pixel), sowie eine ein­ stellbare Integrationszeit (Sample & Hold). Für die Messung der Ladungsmenge Q(t) bei Belichtung am einzelnen Bildpunkt.
Gegenüber Verfahren die eine CCD-Kamera einsetzen, lassen sich besondere Vorteile erzielen, wie beispielsweise die pa­ rallele Erfassung von Intensitäts- und dreidimensionalen Bil­ dern, sowie die Realisierung kurzer Bildaufnahmezeiten, die deutlich unter den Auslesezeiten von CCD-Kameras liegen. Wei­ terhin benötigt der CMOS keine aufwendigen mechanischen Shut­ ter und es müssen auch keine leistungsstarken Laserlichtquel­ len für die Kurzzeitbelichtung eingesetzt werden.
Das Verfahren ist insbesondere für die Erkennung von Personen und Bewegungsabläufen in der Raumüberwachung, beispielsweise Fahrzeuginnen/-außenüberwachung der Automatisierung von Kra­ nanlagen sowie der Navigation geeignet.
Die wesentlichen Funktionsmerkmale werden anhand von Fig. l erläutert. Zunächst wird für die Beleuchtung der zu erfassen­ den räumlichen Objekte mit kurzen Lichtimpulsen beispielswei­ se <100 ns gesorgt. Die Beleuchtung kann mit Laserlicht, wie beispielsweise mit einer gepulsten Laserdiode oder mit Lichtquellen, wie beispielsweise einer gepulsten LED-Diode erfolgen. Das Verfahren ist unabhängig vom Winkel der Be­ leuchtung, die nicht unbedingt zentral zur allgemeinen Detek­ tionsrichtung erfolgen muß. So ist beispielsweise auch bei koaxialer Beleuchtung und Detektion der Einsatz eines Ring­ lichtes denkbar. Die in Fig. 1 dargestellte Anordnung dient nur zur schematischen Verdeutlichung des Funktionsprinzips.
Eine erste Bildaufnahme A wird mit einer kurzen Integrations­ zeit ΔA CMOS-Sensor verbunden. Die von den Objektpunkten G der dreidimensionalen Szene zurückgestreuten Lichtimpulse 3 der Länge ΔL (<100 nsec) werden an den zugehörigen Bildpunk­ ten 9 des CMOS-Sensors innerhalb einer eingestellten kurzen Integrationszeit ΔA≦ΔL erfaßt. Durch einen elektronischen Triggerimpuls wird dabei ein fester zeitlicher Bezug zwischen ausgesandtem Lichtimpuls 2 und dem Öffnen des Integrations­ zeitfensters am CMOS-Sensor hergestellt. Aufgrund der Lauf­ zeit des Lichtes ergibt sich je nach Objektabstand R eine un­ terschiedliche zeitliche Verschiebung
τ = 2R/Vc (Vc = Lichtgeschwindigkeit)
zwischen ausgesandtem und am CMOS-Sensor detektierten Lich­ timpuls. Die am Bildpunkt innerhalb der Integrationszeit ΔA gemessene Ladung QA wird dadurch vom Abstand R zwischen Sen­ sor und Objektpunkt G abhängig. Siehe hierzu Fig. 2.
QA∞I0 * ORL - (2R/VC - tD)) (1)
I0 Intensität des ausgesandten Lichtimpulses
OR Oberflächenreflexionskoeffizient am Objektpunkt G
tD Triggerpunktzeitverzögerung zwischen ausgesandtem Lichtim­ puls und Start des Integrationsfensters am CMOS-Sensor.
Für Objektpunkte G mit gleichem Oberflächenreflektionskoeffi­ zienten OR wird abhängig von ihrem Abstand R eine unter­ schiedliche Ladung QA am zugehörigen Bildpunkt des CMOS- Sensors gemessen. Damit werden kleine Laufzeitunterschiede der Lichtimpulse in Ladungsänderungen QA transformiert, so daß eine integrierte Ladung für jeweils einen Objektpunkt G mit seinem jeweiligen Abstand R(1,. . .) stellvertretend ist. Diese können bei einem CMOS-Sensor sehr empfindlich und mit hoher Dynamik detektiert werden. Üblicherweise besitzen die Objekte einer dreidimensionalen Szene eine unterschiedliche Oberflä­ chenreflexion.
Es wird daher zur Normierung des Abstandsbildes noch eine zweite Bildaufnahme QB durchgeführt, die nur von der Oberflä­ chereflexion der Objekte der dreidimensionalen Szene abhängig ist.
Die Durchführung einer zweiten Bildaufnahme B mit langer In­ tegrationszeit ΔB dient zur Normierung der Oberflächenrefle­ xion der dreidimensionalen Szene, wobei im Prinzip das her­ kömmliche Intensitäts- oder Grauwertbild verwendet wird. Hierzu wird am CMOS-Sensor bei einer zweiten Bildaufnahme ei­ ne Integrationszeit ΔB eingestellt, die sehr groß gegenüber der Länge eines Beleuchtungslichtimpulses ist; ΔB»ΔL z. B. 1 Mikrosekunde. Jetzt werden alle zurückgestreuten Lichtim­ pulse 3 unabhängig von ihrer Laufzeit in vollem Umfang am CMOS-Sensor detektiert. Die an einem Bildpunkt gemessene La­ dung QB gibt sich zu
QB∞ID.ORL. (2)
Das erhaltene Bild ist nur von der Beleuchtungsintensität I0, dem Oberflächenreflektions-Koeffizienten OR des zugehörigen Objektpunktes, sowie der Lichtimpulslänge ΔL abhängig.
Die Erzeugung des zweidimensionalen Abstandsbildes QR ge­ schieht durch die Berechnung aus der Differenz und Normierung von Bildaufnahme A und B bzw. QA und QB
QR = (QA - QB)/QB (3)
Aus Gleichung (1) und (2) folgt mit td = 0 die Gleichung
QR∞ - 2R/(VC * ΔL) (4)
Dieser Wert kann nach Auslesen und Digitalisieren sowie zu­ sätzlicher Skalierung für alle Bildpunkte direkt als Ab­ standsbild QR ausgegeben werden. Ist die Triggerverzögerungs­ zeit td ungleich 0, so addiert sich zu allen Punkten des Ab­ standsbildes QR ein konstanter Offset
RD = tD/(VC * ΔL) (5)
RD = Abstandswert bei tD (Ladungsoffset)
Die gleichzeitige Aufnahme von Intensitäts- und dreidimen­ sinalem Bild bezieht sich auf eine Ausführung einer örtlich und zeitlich parallelen Erfassung von Intensitäts-und Ab­ standswerten. Hierzu wird eine Chiparchitektur und pixelbezo­ gene Integrationszeit derart gewählt, daß direkt benachbarte Pixel A und Pixel B entsprechend der Fig. 3 auf dem CMOS- Sensor die zurückgestreuten Lichtimpulse 3 der dreidimensio­ nalen Szene gleichzeitig mit kurzer Integrationszeit ΔA≦ΔL (für Pixel A) aufnehmen und mit langer Integrationszeit ΔB « ΔL (für Pixel B) erfassen. Durch eine auf dem Chip inte­ grierte elektronische Schaltung kann dann direkt das zweidi­ mensionale Abstandsbild
QR = (QA - QB)/QB (6)
der zugeordneten Pixel A und B berechnet und ausgegeben wer­ den.
Fig. 3 zeigt dazu schematisch zwei mögliche Anordnungen auf dem CMOS-Sensor für die parallele Erfassung von Intensitäts und dreidimensionalem Abstandsbild. Weitere Varianten hierzu sind möglich. Die gleichzeitige Erfassung von Intensitäts- und dreidimensionalem Abstandsbild ist besonders für die Ana­ lyse bewegter dreidimensionaler Szenen von Bedeutung, bei­ spielsweise die Erfassung von Personengestik oder die Objekt­ verfolgung. Weitere besondere Kennzeichen der Erfindung sind:
  • - Falls erforderlich kann eine zusätzliche Normierung des dreidimensionalen Abstandsbildes bezüglich Umgebungslicht durchgeführt werden. Hierzu wird zunächst ohne Beleuchtung der dreidimensionalen Szene bzw. des Objekts die Ladung eines Bildpunktes mit kurzer und langer Integrationszeit erfaßt und von den mit Beleuchtung gemessenen Ladungen QA und QB abgezo­ gen. Anschließend erfolgt die Berechnung des Abstandsbildes QR
  • - Durch zeitliche Mittelung der Signale mehrerer Lichtim­ pulse kann eine Erhöhung der Empfindlichkeit des Verfahrens gegenüber dem Rauschen bei geringen zurückgestreuten Lichtin­ tensitäten erreicht werden.
  • - Die Meßunsicherheit für die Abstandsbestimmung hängt vom Signal/Rauschverhalten des CMOS-Sensors ab. Erwartet wird das Laufzeitunterschiede zwischen 0,1 ns noch detektiert werden können. Daraus folgt eine Meßunsicherheit von weniger als 3 cm für die Abstandsbestimmung.
Die wesentlichen Verwendungen des beschriebenen Verfahrens und der beschriebenen Vorrichtung betreffen die Überwachung von Innenräumen, insbesondere in Fahrzeugen in Verbindung mit volumetrischen Auswerteverfahren. Die Aufgabe der optischen Innenraummüberwachung bei Fahrzeugen ist die Erkennung der Sitzbelegung, wie beispielsweise Personen, Kindersitz, son­ stige Objekte, die Erfassung der Sitzposition von Personen sowie der Diebstahlschutz, d. h. das unzulässige Eindringen in das Fahrzeuginnere von außen. Die Erkennung von Personen und ihrer Sitzposition ist für die stufenweise Auslösung eines Airbaigs (smart Airbaig) von hoher sicherheitsrelevanter Be­ deutung und muß im Kollisionsfall sehr zuverlässig und in kurzen Meßzeiten erfolgen. Die Erfindung erfüllt diese Anfor­ derungen durch eine schnelle und zuverlässige Erzeugung eines dreidimensionalen Abstandsbildes QR im Fahrzeuginneren, wobei volumentrische Auswerteverfahren eingesetzt werden. Dabei werden aus den Abstandswerten R in einem Raumwinkelelement Ω die von Objekten 1 besetzten Nettovolumenanteile im Fahrzeu­ ginnenraum als Differenz zu den Abstandswerten bei unbesetz­ tem Fahrzeuginneren bestimmmt (siehe hierzu Fig. 4).
Das Verfahren und die Vorrichtung liefern weitere wesentliche Vorteile, wie:
  • - Schnelle, globale Erfassung der aktuellen Sitzbelegung durch Differenzbildung eines dreidimensionalen Abstandsbildes vom Fahrzeuginneren ohne Objekte (dreidimensionales Referenz­ bild QRO) und dem aktuell auszuwertenden dreidimensionalen Abstandsbild mit einer Person oder einem sonstigen Objekt QRP auf einem Sitz. Dabei gilt für das Nettovolumen Vp der Sitz­ belegung:
    Vp = ∫ΩR0(Ω) * dF - ∫ΩRp(Ω) * dF (7),
    wobei R0 die Abstandswerte ohne Person bzw. sonstigem Objekt und Rp die Abstandswerte mit Person bzw. sonstigem Objekt auf dem Sitz sind und dF eine differenzielle Fläche bezeichnet.
  • - Die adaptive Ermittlung der Sitzbelegung aus der Berech­ nung der relativen Abstandsänderungen vor und nach dem Ein­ steigen einer Person ins Fahrzeug kann durchgeführt werden. Durch Anwendung regressiver und stochiastischer Auswertever­ fahren kann die Zuverlässigkeit der Differenzbestimmung noch weitergesteigert werden.
  • - Die Größenbestimmung der erfaßten Objekte und globale Un­ terscheidung von Objekten über Volumen-Vergleichsklassen ist möglich.
  • - Räumliche Zuordnung von besetzten Volumenanteilen ist mög­ lich
  • - Bestimmung der räumlichen Extrempositionen (x,y,z) des be­ setzten Volumens im Innenraum für die Steuerung der Airbaig Auslösung kann bestimmt werden.
  • - Volumetrische Verfolgung von Bewegungsabläufen im Raum bei zeitlich aufeinanderfolgenden Bildaufnahmen und Differenzbil­ dung. Erkennuung von Personen und Gestik aus der Bewegungsa­ nalyse.
Diese integrale Volumenbetrachtung ermöglicht eine globale Erfassung von Objekten und Positionen im Raum und ist nicht auf die Bestimmung von Merkmalen, wie beispielsweise Kontu­ ren, Ecken, Kanten im Bild zur Objekterkennung angewiesen. Die Auswertezeiten können für die dreidimensionale Bildauf­ nahme und volumetrische Auswertung unter 10 ms liegen.
Als Anwendungsgebiet des beschriebenen Verfahrens und der Vorrichtung kommt insbesondere ein Fahrzeuginnenraum infrage. Dabei wird für die dreidimensionale Bildaufnahme mit LED- Lichtimpulsen von beispielsweise 50 ns (Nanosekunden) ein Ob­ jekt belichtet. Die Integrationszeiten am CMOS-Sensor werden für die Bildaufnahme QA zu 50 ns und für die Bildaufnahme QB zu 0,5 µs, gewählt. Die zu erfassende Szenendynamik im Fahr­ zeuginneren soll 200 : 1 betragen. Die Abstandswerte R sollen mit einer Meßunsicherheit <15 cm (entsprechender Laufzeitun­ terschied eines Lichtimpulses = 1 ns) in einem Meßbereich bis 1,5 m (Laufzeit 10 ns) erfaßt werden.
Mit diesen Anforderungen wird am CMOS Sensor eine Intensi­ tätsdynamik von (10×200 =) 2000 : 1 erforderlich. Die digi­ tale Erfassung des dreidimensionalen Abstandsbildes QR wird damit durch einen 12 Bit A/D Wandler gewährleistet. Für eine Sensorortsauflösung von 50×50 Bildpunkten werden für die Bildaufnahmen A mit kurzer Integrationszeit und B mit langer Integrationszeit maximal 104 Ausleseoperationen notwendig, die bei Auslesefrequenzen, von beispielsweise 2 MHz zu einer gesamten Bildaufnahmezeit für das dreidimensionale Abstands­ bild von maximal 5 ms führen. Die Berechnung der Differenzvo­ lumina aus den 2500 Abstandswerten ist mit einem schnellen Prozessor, wie beispielsweise einem Pentium mit 200 Mhz in weiteren 5 ms ohne Schwierigkeit ausführbar.
In Fig. 4 wird ein Schema für eine Anwendung der Erfindung in Fahrzeuginnenräumen dargestellt. Die Pfeile mit gepunkte­ ten Linien sind stellvertretend für einen nichtbelegten Sitz und die mit durchgezogenen Linien für einen mit einer Person belegten Sitz. Für die globale Objekterkennung und Positions­ bestimmung wird der umhüllende Nettovolumenanteil aus den dreidimensionalen Abstandsdaten bei besetztem und bei unbe­ setztem Fahrzeug bestimmt. Das Nettovolumen Vp einer Person oder eines sonstigen Objektes auf einem Autositz berechnet sich nach Gleichung (7).
Das bisher beschriebene Verfahren zur Aufnahme eines Ab­ standsbildes beruht auf einem Differenzverfahren, wobei die Laufzeit T0=Up/UgesA beträgt, wobei:
T0 = Lichtlaufzeit, ΔA = Integrationszeit,
Uges = Meßsignal bei ΔB minus Dunkelstromanteil bei ΔB,
Up = Uges minus (Meßsignalanteil bei ΔA minus Dunkelstroman­ teil bei ΔA).
Die weitere hauptsächliche Lösung der Erfindung, die in Fig. 8 dargestellt wird, wertet die aufgenommenen Meßsignale am Sensor mittels eines Interpolationsverfahrens aus. Dabei ergibt sich die Laufzeit des Lichtes von der Lichtquelle über das Objekt bis zum Sensor durch den Schnittpunkt der Kurve des Meßsignales in Fig. 8, geschnitten mit der Kurve des Dunkelstromanteiles. Für die Lichtlaufzeit gilt
T0 = 2R / Vc,
woraus sich der Abstandswert R ergibt.
Die bei zahlreichen industriellen Anwendungen der Bildverar­ beitung notwendige dreidimensionale Bilddatenerfassung ist insbesondere für die automatische Überwachung von Räumen, beispielsweise Autoinnenraum, notwendig. An die Genauigkeit des Entfernungsbildes/Abstandsbildes werden nicht allzu hohe Anforderungen gestellt. Entfernungsbilder mit etwa 1000 Bildlpunkten wären für eine Raumüberwachung in den meisten Fällen schon ausreichend. Übliche Triangulationsverfahren scheiden dabei aus Kostengründen, sowie wegen der großen not­ wendigen Meßbasis, aus.
Sowohl die Beleuchtungsart entsprechend Fig. 7, als auch die Beleuchtungsart entsprechend Fig. 8 lassen eine schnelle und kostengünstige Aufnahme eines dreidimensionalen Abstandsbil­ des verwirklichen. Das Verfahren, bei dem über die Interpola­ tion die Laufzeit des Lichtes, die zur Auswertung notwendig ist, für jeden Bildelementpunkt des Sensors 4 erzielt wird, ist beispielhaft in Fig. 8 dargestellt. Hierin wird anstatt eines Lichtimpulses mit definierter Länge nur ein Lichtinten­ sitätsanstieg mit steiler Flanke ausgewertet. Der am Sensor empfangene vom Objekt reflektierte Laserpuls wird durch zwei unterschiedliche Integrationszeiten abgeschnitten. Dadurch wird zum einen das Meßsignal unabhängig vom Verlauf der ab­ fallenden Flanke des Lichtimpulses und zum anderen kann der Einfluß des Dunkelstromes, der beispielsweise durch die Be­ triebswärme eines Sensors entsteht, und des Umgebungslichtes exakt für jeden Bildpunkt kompensiert werden.
Fig. 5 zeigt die Entfernungsmessung mit integrierendem CMOS- Bildsensor. In dem Zeit t/Sensorspannung U-Diagramm ist zum einen die sendeseitig beleuchtende Laserdiode bzw. deren rechteckförmig ausgebildeter Lichtimpuls dargestellt. Darun­ ter sind die empfangsseitig aufgenommenen Meßsignale darge­ stellt. Die durchgezogene Linie, die vom Ursprung des Koordi­ natensystems zu der Spannung Ud führt, ist die erste durch­ geführte Messung und beinhaltet einen Dunkelstromanteil plus einen Fremdlichtanteil. Ud wird zur Integrationszeit T2, die größer als eine andere Integrationszeit T1 ist, aufgenommen.
Im Anschluß daran wird das Objekt 1 mit der Laserdiode be­ leuchtet, woraufhin zunächst in den einzelnen Bildpunkten nur die Dunkelströme verbunden mit dem Fremdlichtanteil inte­ griert werden. Wenn aufgrund der Lichtlaufzeit T0 zusätzli­ ches Licht vom Objektpunkt G zurückgestreut wird, so steigt das Meßsignal vom Zeitpunkt T0 entsprechend der Helligkeit des jeweiligen Bildpunktes stärker an. Nach einer bestimmten Integrationszeit T1 wird dann die Spannung U1 für alle Bild­ punkte ausgelesen und abgespeichert. Der gleiche Vorgang wie­ derholt sich nun mit der bereits aus der ersten Dunkelstrom­ messung bekannten Integrationszeit T2. T1 beträgt beispiels­ weise 30 ns und T2 beträgt beispielsweise 60 ns. An den Stel­ len, an denen das Meßsignal die Zeiten T1 bzw. T2 schneidet, was gleichbedeutend ist mit einem Abschneiden des empfangenen Lichtimpulses, ergibt sich der Punkt U1 bzw. der Punkt U2. Es gilt die Beziehung ΔU=U2-U1. Die Lichtlaufzeit T0 er­ rechnet sich nach der Formel die in Fig. 5 dargestellt ist. Verlängert man eine Gerade durch die Punkte U2 und U1, so schneidet diese Gerade nach unten hin die Dunkelstrom dar­ stellende Gerade zwischen dem Ursprung des Koordinatensystems und der Spannung UD. Am Schnittpunkt kann die Lichtlaufzeit T0 abgelesen werden. Sämtliche Werte für U1 und U2 bzw. ΔU werden ebenfalls für alle Bildpunkte ausgelesen und gespei­ chert. Aus den für jeden Bildpunkt abgespeicherten Spannungen UD, U1, U2 und ΔU in Verbindung mit den vorgegebenen Integra­ tionszeiten T1 und T2 läßt sich eindeutig und exakt für jeden Bildpunkt die Laufzeit T0 berechnen, auch wenn relativ hohe Dunkelstromanteile UD vorliegen. Dabei gilt:
T0 = U1.ΔT - ΔU.T1/(UD.ΔT/T2 - ΔU).
Dies eröffnet die Verwendung von geringeren Lichtleistungen bei gleichzeitig genauer Messung der Laufzeit und damit der Entfernung zum Objekt.
Eine vorteilhafte Ausgestaltung sieht vor, daß zur Verringe­ rung der aus Kostengründen meist kritischen Laserleistung ei­ ne mehrfache Wiederholung des oben beschriebenen Vorgangs in hintereinander geschieht, wobei sich die ergebenden Werte für U1, UD, und ΔU erst am Ende der Mehrfachbelichtung von CMOS-Sensoren auslesen lassen und digitalisiert werden. Siehe hierzu die Fig. 6a und 6b. Eine analoge Mittelwertbildung für die Mehrfachbelichtung auf dem CMOS-Sensor vermeidet auch die relativ langen Auslesezeiten bei einer späteren digitalen Mittelung. Eine adaptive Einstellung auf die jeweilige Reflek­ tivität des Objektes im Hinblick auf die Optimierung des Si­ gnal-/Rauschverhältnisses der Meßwerte wird, dadurch erzielt, daß in wenigen Testbildern die Zahl der Belichtungen solange gesteigert wird, bis sich in einer gewissen Menge von Bild­ punkten des Gesamtbildes eine Sättigung der Werte n(U1+ΔU) einstellt; mit n = Anzahl der Mehrfachbelichtungen.
Durch die beschriebenen Schritte wird ermöglicht, daß eine exakte Berechnung von der Lichtlaufzeit T0 bei vorliegendem Dunkelstrom und Umgebungslicht möglich ist, daß das Auslesen des Signales vom CMOS-Sensor erst nach der Mehrfachbelichtung geschieht, woraufhin sich die Digitalisierung anschließt und daß eine adaptive Einstellung der Mehrfachbelichtung entspre­ chend der Objektreflektivität vorgenommen werden kann. Durch diese Maßnahmen kann eine bisher notwendige Laserleistung um den Faktor 10 bis 20 gesenkt werden bzw. die Genauigkeit er höht werden.
Das in dem Bildsensor verwendete Sensorprinzip ist ein inte­ grierendes Verfahren, beispielsweise auf der Basis einer n⁺-p -Photodiode. Diese Photodiode ist Bestandteil eines elektronischen Kurzzeitintegrators, der weiterhin einen Kon­ densator und mehrere Transistoren aufweist. Die Verschaltung geschieht derart, daß sich beispielsweise die Kapazität des Kondensators in Abhängigkeit von dem auf die Photodiode ein fallenden Licht entlädt. Dies wird über einen sog. Shutter- Transistor gesteuert. Im Anschluß daran wird beispielsweise das in dem Kondensator verbleibende Potential ausgelesen. Um eine synchronisierte Beleuchtung zu gewährleisten wird die Zeitsteuerung des elektronischen Kurzzeitintegrators ein sog. Strobe-Signal zur Ansteuerung einer Lichtquelle erzeugen. Für jedes Bildpunktelement des Sensors 4 wird ein derartiger elektronischer Kurzzeitintegrator (elektronischer Shutter) verwendet. Anstelle der am Ende einer Messung im Kondensator verbleibenden Potential kann auch das bereits abgeführte Po­ tential als Meßwert herangezogen werden.
In Fig. 6a sind mehrere hintereinander geschaltete sendesei­ tige Laserimpulse dargestellt. In Fig. 6b wird beispielhaft die Integrationszeit T1 in Verbindung mit der jeweiligen Spannung U1 und dem Dunkelstromanteil UD dargestellt. Glei­ ches kann für T2, U2 und UD aufgetragen werden. Es ergibt sich für jede Belichtung bzw. Mehrfachbelichtung ein Wert für die Lichtlaufzeit T0.
In der Gegenüberstellung der Fig. 7 und 8 ist zu erkennen, daß das Interpolationsverfahren entsprechend Fig. 8 kürzere Beleuchtungszeiten aufweist. Die jeweils in der Mitte darge­ stellten Shutter-Zeiten von beispielsweise 30 ns und 60 ns in Fig. 8 und 60 ns in Verbindung mit einer sehr langen La­ serimpulszeit in Fig. 7 sollen die Integrationszeiten am Sensor festlegen. In der Fig. 7 ist im oberen Teil das zeit­ liche Verhältnis zwischen der sendeseitigen Beleuchtung und dem empfangsseitigen Eintreffen des Laserimpulses darge­ stellt. Die in den Fig. 5 bis 8 jeweils dargestellten Aus­ führungsbeispiele weisen keine Triggerverzögerungszeit auf. Dies bedeutet, daß empfangsseitig mit dem Beginn des Senso­ rimpulses das Meßfenster geöffnet wird. Dies bedeutet für die Darstellung in Fig. 7, daß der Kurzzeit-Shutter (60 ns) den empfangenen Laserpuls, jeweils bezogen auf einen Objekt- bzw. Bildelementpunkt, bei der Zeit ΔA abschneidet. Die Zeitdauer des Lichtimpulses ist sende- wie empfangsseitig ΔL. Es wird deutlich, das auf Grund von verschiedenen Lichtlaufzeiten der elektronische Kurzzeitintegrator am Sensor jeweils ein Poten­ tial als Meßwert liefern wird, daß in Abhängigkeit von der Laufzeit ab dem Zeitpunkt T0 bis zum Ende von und ΔA aufin­ tegriert wird. Die Integrationszeit ΔB wird im Falle der Fig. 7 zum Ausgleich von Reflektivitätsunterschieden am Objekt 1 verwendet. Dabei wird ein Dunkelstrom und Fremdlichtanteil ermittelt, der entsprechend vom Meßsignal abgezogen werden kann.
Die Fig. 8 zeigt eine der Fig. 7 entsprechende Darstellung, wobei der obere Teil identisch dem der Fig. 7 ist. In der Mitte der Fig. 8 werden zwei Kurzzeit-Shutterzeiten darge­ stellt. Diese werden in ähnlicher Weise wie in Fig. 7 zum Abschneiden der am Sensor 4 eintreffenden Laserimpulse ver­ wendet. Somit ergeben sich eine kürzere Integrationszeit T und eine längere Integrationszeit T2. Das Meßsignal weist in den Fig. 7 und 8 einen Dunkelstrom und Fremdlichtanteil auf. Das Meßsignal ergibt sich somit aus der Addition des Photostromanteils zu dem Dunkelstrom und Fremdlichtanteil. Anders ausgedrückt kann der Photostromanteil ermittelt wer­ den, indem vom Meßsignal der Dunkelstrom und Fremdlichtanteil angezogen wird. Die Lichtlaufzeit T0 ergibt sich an der Stel­ le auf der Zeitachse an der das Meßsignal bei einem eingehen­ den reflektierten Lichtimpuls von dem normalen Verlauf des Dunkelstrom- und Fremdlichtanteils abweist, weil der Photo­ stromanteil nicht mehr Null ist. Die Auswertung, die die Lichtlaufzeit T0 ergibt, ist in Zusammenhang mit Fig. 5 be­ schrieben worden.

Claims (26)

1. Verfahren zur Aufnahme eines dreidimensionalen Abstands­ bildes von räumlichen Objekten unter Einsatz eines bild­ punktauflösenden optoelektronischen Sensors (4) mit an jedem Bildpunktelement (9) vorhandenen elektronischen Kurzzeitinte­ grator, wobei eine Integrationszeit einstellbar ist, beste­ hend aus folgenden Schritten:
  • - das Objekt (1) wird mit mindestens einem Lichtimpuls (2) vorgegebener Zeitdauer ΔL beleuchtet,
  • - von Objektpunkten (G) zurückgestreute Lichtimpulse (3) werden an zugehörigen Bildpunkten des Sensors (4) innerhalb einer vorgegebenen kurzen Integrationszeit ΔA, mit ΔA≦ΔL, erfaßt, wobei der Zeitpunkt für den Beginn der Integrations­ zeit ΔA vor dem Eintreffen des ersten zurückgestreuten Lich­ timpulses (3) liegt, der dem nächstliegenden Objektpunkt (G) entspricht,
  • - aus den entsprechend ihrer unterschiedlichen Laufzeiten resultierenden unterschiedlichen aufgenommenen Intensitäten der zurückgestreuten Lichtimpulse (3) werden Abstandswerte ermittelt.
2. Verfahren zur Aufnahme eines dreidimensionalen Abstands­ bildes von räumlichen Objekten unter Einsatz eines bild­ punktauflösenden optoelektronischen Sensors (4) mit an jedem Bildpunktelement (9) vorhandenem elektronischen Kurzzeitinte­ grator, wobei eine Integrationszeit einstellbar ist, beste­ hend aus folgenden Schritten:
  • - Aufnahme und Integration des einen Dunkelstrom und Umge­ bungslicht darstellenden Sensorsignales von dem Beginn der Aufnahme und Integration bis zu einer vorgegebenen Integrati­ onszeit T2,
  • - Beginn der Belichtung eines Objektes (1) durch eine Be­ leuchtungseinrichtung (5) zeitgleich mit dem Beginn der Auf­ nahme und der Integration des Sensorsignales am Sensor (4), wobei innerhalb eines Lichtintensitätsanstieges des am Sensor (4) empfangenen Lichtes bis zu einer Integrationszeit T1 in­ tegriert wird und T1 kleiner ist als T2,
  • - wiederholte Belichtung des Objektes (1) durch die Beleuch­ tungseinrichtung (5) mit zeitgleichem Beginn der Aufnahme und der Integration des Sensorsignales am Sensor (4), wobei in­ nerhalb des Lichtintensitätsanstieges des am Sensor (4) emp­ fangenen Lichtes bis zu der Integrationszeit T2 integriert wird,
  • - zu den Zeitpunkten T1 und T2 wird für alle Bildpunkte der jeweils integrierte Wert des Sensorsignales ausgelesen und gespeichert und
  • - aus den gespeicherten Werten werden für jeden Bildpunkt die Laufzeit T0 des Lichtes von der Beleuchtungseinrichtung (5) über das Objekt (1) bis zum Sensor (4), sowie ein ent­ sprechender Abstandswert, berechnet.
3. Verfahren nach Anspruch 2, worin die einzelnen Verfahrens­ schritte zur Gewinnung eines Sensorsignales jeweils mehrfach wiederholt werden, und die daraus resultierenden Signale für jeden einzelnen Bildpunkt integriert werden und sich erst in Anschluß an die Mehrfachbelichtung das Auslesen, Abspeichern und Auswerten der Sensorsignale anschließt.
4. Verfahren nach Anspruch 2 oder 3, worin abgespeicherte Werte digitalisiert werden.
5. Verfahren nach einem der Ansprüche 3 oder 4, worin eine adaptive Einstellung auf die jeweilige Reflektivität eines Objektes (1), dadurch geschieht, daß die Zahl der Mehrfachbe­ lichtungen solange gesteigert wird, bis in einer vorgegebenen Menge von Bildpunkten des Gesamtbildes sich eine Sättigung der integrierten Intensitätswerte des Sensorsignales bei T1 und bei T2 einstellt.
6. Verfahren nach Anspruch 1 oder 2, worin die Integrations­ zeit bildpunktweise einstellbar ist.
7. Verfahren nach einem der Ansprüche 1 oder 6, worin zur gleichzeitigen oder nachfolgenden Normierung der Oberflächen­ reflexion des Objektes (1) zusätzlich sämtliche zurückge­ streuten Lichtimpulse (3) mit einer langen Integrationszeit ΔB»ΔL vollständig erfaßt werden.
8. Verfahren nach einem der Ansprüche 1 oder 6-7, worin der Beginn einer Integrationszeit ΔAB mit einer Triggerimpuls­ verzögerung gegenüber dem Sendeimpuls verbunden ist.
9. Verfahren nach einem der Ansprüche 1 oder 6-8, worin eine Integrationszeit ΔA weniger als 100 ns beträgt.
10. Verfahren nach einem der Ansprüche 1 oder 6-9, worin eine Integrationszeit ΔB ca. 1µs beträgt.
11. Verfahren nach einem der vorhergehenden Ansprüche, worin eine Lichtimpulslänge weniger, als 100 ns beträgt.
12. Verfahren nach einem der vorhergehenden Ansprüche, worin zur gleichzeitigen Aufnahme eines dreidimensionalen Bildes und eines Grauwertbildes auf dem Sensor (4) zeilenweise un­ terschiedliche Integrationszeiten ΔA bzw. ΔB oder T1 bzw. T2 eingestellt werden.
13. Verfahren nach einem der vorhergehenden Ansprüche, worin zur gleichzeitigen Aufnahme eines dreidimensionalen und eines Grauwertbildes auf dem Sensor (4) bildpunktweise unterschied­ liche Integrationszeiten ΔA bzw. ΔB oder T1 bzw. T2 abwechselnd eingestellt werden.
14. Verfahren nach einem der vorhergehenden Ansprüche, worin das Objekt (1) mit Lichtimpulsen eines Lasers oder einer ge­ pulsten Leuchtdiode beleuchtet wird.
15. Verfahren nach einem der vorhergehenden Ansprüche, worin der Sensor (4) wahlfrei auslesbar ist.
16. Verfahren nach einem der vorhergehenden Ansprüche, worin der Sensor (4) ein CMOS Sensor ist.
17. Verfahren nach einem der vorhergehenden Ansprüche, worin die Entfernung vom Sensor (4) zu mindestens einem Punkt als Referenzabstand bekannt ist.
18. Verfahren nach Anspruch 17, worin beim Einsatz in einem Fahrzeug ein Referenzpunkt am Türrahmen positioniert ist.
19. Verfahren nach einem der vorhergehenden Ansprüche, worin eine Erkennung von statischen Objekten und/oder von Bewe­ gungsabläufen vorgenommen wird.
20. Verfahren nach Anspruch 19, worin Objekte überwacht wer­ den, wie Gegenstände oder Personen in Räumen oder in Fahrzeu­ ge.
21. Verfahren nach Anspruch 19, worin Fahrzeuge oder Kranan­ lagen überwacht werden und/oder worin eine allgemeine Positi­ onsbestimmung in einem Navigationssystem vorgenommen wird.
22. Verfahren nach Anspruch 19 oder 20, worin eine Sitzbele­ gung und/oder eine Sitzposition beispielsweise einer Person in einem Fahrzeug erkannt wird.
23. Vorrichtung zur Aufnahme eines dreidimensionalen Abstand­ bildes, bestehend aus:
  • - einer Beleuchtungseinrichtung (5), die Lichtimpulse (2) über eine Optik (6) auf ein Objekt (1) sendet,
  • - einem optoelektronischen Sensor (4) mit einer vorgeschal­ teten Optik (7), der die vom Objekt (1) zurückgestreuten Lichtimpulse (3) detektiert, wobei der Sensor (4) durch eine Vielzahl von Bilpunktelementen (9) bildpunktauflösend aufge­ baut und wahlfrei auslesbar ist und eine Integrationszeit bildpunktweise einstellbar ist,
  • - einer Triggereinrichtung (8) zur zeitlichen Abstimmung zwischen Beleuchtungseinrichtung (5) und Sensor (4),
  • - einer Recheneinheit zur Berechnung eines dreidimensionalen Bildes aus entsprechenden Ladungen der Bildpunktelemente (9) des Sensors (4).
24. Vorrichtung nach Anspruch 23, worin an den Bildpunktele­ menten (9) des Sensors (4) zeilen- oder spaltenweise abwech­ selnd eine kurze Integrationszeit ΔA bzw. T1 und eine lange Integrationszeit ΔB bzw. T2 eingestellt ist.
25. Vorrichtung nach Anspruch 23, worin an den Bildpunktele­ menten (9) des Sensors (4) abwechselnd kurze und lange Inte­ grationszeiten ΔA bzw. ΔB oder T1 bzw. T2 eingestellt sind.
26. Vorrichtung nach einem der Ansprüche 23-25, worin die Re­ cheneinheit auf dem Sensor (4) angeordnet ist.
DE19833207A 1997-12-23 1998-07-23 Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes Withdrawn DE19833207A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE19833207A DE19833207A1 (de) 1998-07-23 1998-07-23 Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
KR10-2000-7007058A KR100508277B1 (ko) 1997-12-23 1998-11-14 3차원 거리 측정 이미지를 기록하기 위한 방법 및 장치
US09/581,091 US6373557B1 (en) 1997-12-23 1998-11-14 Method and apparatus for picking up a three-dimensional range image
DE59809883T DE59809883D1 (de) 1997-12-23 1998-11-14 Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
JP2000526831A JP3860412B2 (ja) 1997-12-23 1998-11-14 3次元距離画像を撮影するための方法及び装置
PCT/DE1998/003344 WO1999034235A1 (de) 1997-12-23 1998-11-14 Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
EP98962257A EP1040366B1 (de) 1997-12-23 1998-11-14 Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19833207A DE19833207A1 (de) 1998-07-23 1998-07-23 Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes

Publications (1)

Publication Number Publication Date
DE19833207A1 true DE19833207A1 (de) 2000-02-17

Family

ID=7875085

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19833207A Withdrawn DE19833207A1 (de) 1997-12-23 1998-07-23 Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes

Country Status (1)

Country Link
DE (1) DE19833207A1 (de)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000050268A1 (en) * 1999-02-24 2000-08-31 Siemens Automotive Corporation Vehicle occupant sensing system
DE10124160A1 (de) * 2001-05-17 2002-12-05 Sick Ag Verfahren und optoelektronischer Sensor zur Erzeugung eines entfernungsauflösenden Bildes
DE20213915U1 (de) 2002-08-07 2003-02-06 Sauermann, Hans, 85119 Ernsgaden Sicherheitsvorrichtung für ein Fahrzeug
WO2003016944A2 (de) * 2001-08-06 2003-02-27 Siemens Aktiengesellschaft Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
WO2004021546A2 (de) * 2002-08-09 2004-03-11 Conti Temic Microelectronic Gmbh Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb
EP1221582A3 (de) * 2001-01-05 2004-12-29 Leuze electronic GmbH + Co. Optoelektronische Vorrichtung
DE10254778B3 (de) * 2002-11-22 2005-02-03 Bundesrepublik Deutschland, vertr. d. d. Bundesministerium für Wirtschaft und Arbeit, dieses vertr. d. d. Präsidenten der Physikalisch-Technischen Bundesanstalt Verfahren und Vorrichtung zur hochgenauen Bestimmung der Topographie einer Oberfläche
DE10360174A1 (de) * 2003-12-20 2005-07-21 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
DE102004035886A1 (de) * 2004-07-23 2006-02-16 Daimlerchrysler Ag Gurtbringersystem in einem Fahrzeug
DE10063697B4 (de) * 2000-12-20 2006-07-13 Siemens Ag Verfahren und Vorrichtung zur Erfassung der Position eines Elements in einem Fahrzeug, insbesondere für Insassenschutzsysteme
DE10360789B4 (de) * 2003-12-23 2007-03-15 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
WO2007036557A1 (de) * 2005-09-30 2007-04-05 Siemens Aktiengesellschaft Vorrichtung und verfahren zur aufnahme von abstandsbildern
WO2007036553A1 (de) * 2005-09-30 2007-04-05 Siemens Aktiengesellschaft Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE102007011417A1 (de) 2007-03-08 2008-09-11 Siemens Ag Vorrichtung und Verfahren zur Entfernungsbestimmung
DE102008018718A1 (de) 2008-04-14 2009-10-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optischer Abstandsmesser und Verfahren zur optischen Abstandsmessung
EP2290393A2 (de) 2009-08-14 2011-03-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Konzept zur optischen Abstandsmessung
EP2191298B1 (de) * 2007-09-28 2013-11-27 Odos imaging Ltd Verfahren zum bestimmen eines abstands mittels eines optoelektronischen bildsensors
WO2015071358A1 (en) * 2013-11-14 2015-05-21 Odos Imaging Ltd. Method for illuminating an object
WO2015092794A1 (en) 2013-12-17 2015-06-25 Brightway Vision Ltd. System for controlling pixel array sensor with independently controlled sub pixels
DE102014007466B3 (de) * 2014-05-19 2015-08-06 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zur Vebesserung des Cpk-Wertes bei der Fertigung von CMOS Fotodedektoren für die schnelle Lichtlaufzeitmessung
DE102015002282A1 (de) 2014-05-09 2015-11-12 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung
DE102016108496A1 (de) 2016-03-01 2017-09-07 Elmos Semiconductor Aktiengesellschaft Optische Laufzeitmessung nach einem ein- oder zweistufigen Delta-Sigma-Verfahren und zugehörige Vorrichtung
WO2017148772A1 (de) 2016-03-01 2017-09-08 Elmos Semiconductur Aktiengesellschaft Vorrichtung zur wandlung einer zeitlichen verzögerung eines zwischen einem sender und einem empfänger übertragenen signals
DE102017207317A1 (de) * 2017-05-02 2018-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Ermittlung eines Abstands zu einem Objekt sowie entsprechendes Verfahren
US10401483B2 (en) 2014-12-02 2019-09-03 Odos Imaging Ltd. Distance measuring device and method for determining a distance
JPWO2018181250A1 (ja) * 2017-03-30 2020-02-06 パナソニックIpマネジメント株式会社 距離画像生成装置及び距離画像生成方法
US10557703B2 (en) 2014-11-21 2020-02-11 Rockwell Automation Limited Distance measuring device and method for determining a distance
EP2114630B2 (de) 2007-03-06 2020-02-26 Rockwell Automation Safety AG Sensorvorrichtung sowie anlage mit einem förderer und einer sensorvorrichtung
DE102021100913A1 (de) 2020-03-10 2021-09-16 Elmos Semiconductor Se Pixel für ein bildgebendes Lichtlaufzeitmesssystem mit einer verbesserten Fertigungsausbeute
EP4102252A1 (de) * 2021-06-11 2022-12-14 K. A. Schmersal Holding GmbH & Co. KG Sichere überwachung eines schutzbereichs mittels einer tof-kamera

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0151257A2 (de) * 1984-02-08 1985-08-14 Dornier Gmbh Verfahren zur Erzeugung von Entfernungsbildern
DE3732347C1 (de) * 1987-09-25 1989-03-16 Messerschmitt Boelkow Blohm Entfernungsbild-Sensor
DE3839513A1 (de) * 1988-11-23 1990-05-31 Messerschmitt Boelkow Blohm Bildsensor
DE19619186C1 (de) * 1996-05-02 1998-01-02 Pco Computer Optics Gmbh Verfahren sowie System zur Erstellung eines Bildes
DE19757595A1 (de) * 1997-12-23 1999-07-01 Siemens Ag Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0151257A2 (de) * 1984-02-08 1985-08-14 Dornier Gmbh Verfahren zur Erzeugung von Entfernungsbildern
DE3732347C1 (de) * 1987-09-25 1989-03-16 Messerschmitt Boelkow Blohm Entfernungsbild-Sensor
DE3839513A1 (de) * 1988-11-23 1990-05-31 Messerschmitt Boelkow Blohm Bildsensor
DE19619186C1 (de) * 1996-05-02 1998-01-02 Pco Computer Optics Gmbh Verfahren sowie System zur Erstellung eines Bildes
DE19757595A1 (de) * 1997-12-23 1999-07-01 Siemens Ag Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6441363B1 (en) 1999-02-24 2002-08-27 Siemens Vdo Automotive Corporation Vehicle occupant sensing system
WO2000050268A1 (en) * 1999-02-24 2000-08-31 Siemens Automotive Corporation Vehicle occupant sensing system
DE10063697B4 (de) * 2000-12-20 2006-07-13 Siemens Ag Verfahren und Vorrichtung zur Erfassung der Position eines Elements in einem Fahrzeug, insbesondere für Insassenschutzsysteme
US7376248B2 (en) 2000-12-20 2008-05-20 Siemens Aktiengesellschaft Method and device for detecting an object in a vehicle in particular for occupant protection systems
EP1221582A3 (de) * 2001-01-05 2004-12-29 Leuze electronic GmbH + Co. Optoelektronische Vorrichtung
DE10124160B4 (de) * 2001-05-17 2006-04-06 Sick Ag Verfahren zur Erzeugung eines entfernungsauflösenden Bildes und optoelektronischer Sensor
DE10124160A1 (de) * 2001-05-17 2002-12-05 Sick Ag Verfahren und optoelektronischer Sensor zur Erzeugung eines entfernungsauflösenden Bildes
WO2003016944A3 (de) * 2001-08-06 2003-10-09 Siemens Ag Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
WO2003016944A2 (de) * 2001-08-06 2003-02-27 Siemens Aktiengesellschaft Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
DE20213915U1 (de) 2002-08-07 2003-02-06 Sauermann, Hans, 85119 Ernsgaden Sicherheitsvorrichtung für ein Fahrzeug
WO2004021546A2 (de) * 2002-08-09 2004-03-11 Conti Temic Microelectronic Gmbh Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb
WO2004021546A3 (de) * 2002-08-09 2004-06-03 Conti Temic Microelectronic Verkehrsmittel mit einer 3d-entfernungsbildkamera und verfahren zu dessen betrieb
DE10254778B3 (de) * 2002-11-22 2005-02-03 Bundesrepublik Deutschland, vertr. d. d. Bundesministerium für Wirtschaft und Arbeit, dieses vertr. d. d. Präsidenten der Physikalisch-Technischen Bundesanstalt Verfahren und Vorrichtung zur hochgenauen Bestimmung der Topographie einer Oberfläche
DE10360174A1 (de) * 2003-12-20 2005-07-21 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
US8698893B2 (en) 2003-12-20 2014-04-15 Leuze Lumiflex Gmbh & Co. Kg Device for monitoring an area of coverage on a work tool
DE10360174B4 (de) * 2003-12-20 2007-03-08 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
DE10360789B4 (de) * 2003-12-23 2007-03-15 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
US7412861B2 (en) 2003-12-23 2008-08-19 Leuze Lumiflex Gmbh & Co., Ltd. Device for monitoring an area of coverage on a work tool
DE102004035886B4 (de) * 2004-07-23 2006-10-12 Daimlerchrysler Ag Gurtbringersystem in einem Fahrzeug
DE102004035886A1 (de) * 2004-07-23 2006-02-16 Daimlerchrysler Ag Gurtbringersystem in einem Fahrzeug
WO2007036553A1 (de) * 2005-09-30 2007-04-05 Siemens Aktiengesellschaft Vorrichtung und verfahren zur aufnahme von entfernungsbildern
WO2007036557A1 (de) * 2005-09-30 2007-04-05 Siemens Aktiengesellschaft Vorrichtung und verfahren zur aufnahme von abstandsbildern
US7791714B2 (en) 2005-09-30 2010-09-07 Siemens Aktiengesellschaft Device and method for recording distance-measuring images
EP2114630B2 (de) 2007-03-06 2020-02-26 Rockwell Automation Safety AG Sensorvorrichtung sowie anlage mit einem förderer und einer sensorvorrichtung
DE102007011417A1 (de) 2007-03-08 2008-09-11 Siemens Ag Vorrichtung und Verfahren zur Entfernungsbestimmung
WO2008107374A1 (de) * 2007-03-08 2008-09-12 Siemens Aktiengesellschaft Vorrichtung und verfahren zur entfernungsbestimmung
EP2191298B1 (de) * 2007-09-28 2013-11-27 Odos imaging Ltd Verfahren zum bestimmen eines abstands mittels eines optoelektronischen bildsensors
DE102008018718A1 (de) 2008-04-14 2009-10-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optischer Abstandsmesser und Verfahren zur optischen Abstandsmessung
DE102008018718B4 (de) * 2008-04-14 2010-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optischer Abstandsmesser und Verfahren zur optischen Abstandsmessung
EP2290393A2 (de) 2009-08-14 2011-03-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Konzept zur optischen Abstandsmessung
DE102009037596A1 (de) 2009-08-14 2011-05-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Konzept zur optischen Abstandsmessung
WO2015071358A1 (en) * 2013-11-14 2015-05-21 Odos Imaging Ltd. Method for illuminating an object
US10241204B2 (en) 2013-11-14 2019-03-26 Odos Imaging Ltd. Method for illuminating an object
CN106133552A (zh) * 2013-11-14 2016-11-16 欧都思影像公司 用于照明物体的方法
WO2015092794A1 (en) 2013-12-17 2015-06-25 Brightway Vision Ltd. System for controlling pixel array sensor with independently controlled sub pixels
EP3085076A4 (de) * 2013-12-17 2017-08-16 Brightway Vision Ltd. System zur steuerung eines pixelanordnungssensors mit unabhängig gesteuerten subpixeln
DE102015002271A1 (de) 2014-05-09 2015-11-26 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung
DE102015002283A1 (de) 2014-05-09 2015-11-12 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung und objektabhängiger Ortsauflösung mehrerer verschiedener Einzelscanner
DE102015002270A1 (de) 2014-05-09 2015-11-26 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen, Vermessen und Klassifizieren von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung
DE102015002282A1 (de) 2014-05-09 2015-11-12 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung
DE102015002283B4 (de) 2014-05-09 2023-01-19 Elmos Semiconductor Se Vorrichtung zum insbesondere dreidimensionalen optischen Scannen und Vermessen von Objekten und zur Objekterkennung mittels Lichtlaufzeitmessung und objektabhängiger Ortsauflösung mehrerer verschiedener Einzelscanner
DE102014007466B3 (de) * 2014-05-19 2015-08-06 Elmos Semiconductor Aktiengesellschaft Vorrichtung und Verfahren zur Vebesserung des Cpk-Wertes bei der Fertigung von CMOS Fotodedektoren für die schnelle Lichtlaufzeitmessung
US10557703B2 (en) 2014-11-21 2020-02-11 Rockwell Automation Limited Distance measuring device and method for determining a distance
US10401483B2 (en) 2014-12-02 2019-09-03 Odos Imaging Ltd. Distance measuring device and method for determining a distance
US11187792B2 (en) 2016-03-01 2021-11-30 Elmos Semiconductor Se Device for converting a temporal delay of a signal transmitted between a transmitter and a receiver
DE102016108496A1 (de) 2016-03-01 2017-09-07 Elmos Semiconductor Aktiengesellschaft Optische Laufzeitmessung nach einem ein- oder zweistufigen Delta-Sigma-Verfahren und zugehörige Vorrichtung
WO2017148772A1 (de) 2016-03-01 2017-09-08 Elmos Semiconductur Aktiengesellschaft Vorrichtung zur wandlung einer zeitlichen verzögerung eines zwischen einem sender und einem empfänger übertragenen signals
JPWO2018181250A1 (ja) * 2017-03-30 2020-02-06 パナソニックIpマネジメント株式会社 距離画像生成装置及び距離画像生成方法
DE102017207317A1 (de) * 2017-05-02 2018-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Ermittlung eines Abstands zu einem Objekt sowie entsprechendes Verfahren
DE102017207317B4 (de) 2017-05-02 2022-03-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Ermittlung eines Abstands zu einem Objekt sowie entsprechendes Verfahren
US11016184B2 (en) 2017-05-02 2021-05-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device for determining a distance from an object, and corresponding method
DE102021100931A1 (de) 2020-03-10 2021-09-16 Elmos Semiconductor Se Verfahren zur Herstellung eines Pixels für ein bildgebendes Lichtlaufzeitmesssystem mit einer verbesserten Fertigungsausbeute
DE102021100913A1 (de) 2020-03-10 2021-09-16 Elmos Semiconductor Se Pixel für ein bildgebendes Lichtlaufzeitmesssystem mit einer verbesserten Fertigungsausbeute
EP4102252A1 (de) * 2021-06-11 2022-12-14 K. A. Schmersal Holding GmbH & Co. KG Sichere überwachung eines schutzbereichs mittels einer tof-kamera
DE102021115221A1 (de) 2021-06-11 2022-12-15 K.A. Schmersal Holding Gmbh & Co. Kg Sichere Überwachung eines Schutzbereichs mittels einer ToF-Kamera

Similar Documents

Publication Publication Date Title
EP1040366B1 (de) Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
DE19757595C2 (de) Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
DE19833207A1 (de) Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
EP3185038B1 (de) Optoelektronischer sensor und verfahren zur messung einer entfernung
EP2290393B1 (de) Konzept zur optischen Abstandsmessung
EP1423731B1 (de) Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
EP2263103B1 (de) Optischer abstandsmesser und verfahren zur optischen abstandsmessung
DE102005046990B4 (de) Fahrzeugradarsystem
EP3418767A1 (de) Optoelektronischer sensor und verfahren zur messung der entfernung zu einem objekt
EP2708913A1 (de) Optoelektronischer Sensor und Verfahren zur Objekterfassung
DE202013101039U1 (de) Optoelektronischer Sensor zur Entfernungsmessung
DE112015004407T5 (de) Hintergrundlicht-Detektion für optische Navigationssysteme
WO2007134730A1 (de) Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles
DE102006029025A1 (de) Vorrichtung und Verfahren zur Abstandsbestimmung
DE102010061382A1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung und Abstandsbestimmung von Objekten
DE212017000247U1 (de) LiDAR-Vorrichtung
DE102009045323A1 (de) Optisches Entfernungsmessgerät mit Kalibrierungseinrichtung
DE102017113674A1 (de) Optoelektronischer Sensor und Verfahren zur Messung der Entfernung zu einem Objekt
DE102014108310B4 (de) Optisches Laufzeitsystem
DE112020006097T5 (de) Ebs/tof/rgb-kamera zur intelligenten überwachung und detektion von eindringlingen
DE112020004621T5 (de) Lichtdetektierende Vorrichtung und System
EP1636610B1 (de) Erfassung elektromagnetischer strahlung
DE102005046950B3 (de) Vorrichtung und Verfahren zur Aufnahme von Abstandsbildern
DE10153742A1 (de) Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
EP2978216B1 (de) Verfahren zur Erkennung von Bewegungsunschärfe

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee