DE102009046108B4 - Kamerasystem - Google Patents

Kamerasystem Download PDF

Info

Publication number
DE102009046108B4
DE102009046108B4 DE102009046108.6A DE102009046108A DE102009046108B4 DE 102009046108 B4 DE102009046108 B4 DE 102009046108B4 DE 102009046108 A DE102009046108 A DE 102009046108A DE 102009046108 B4 DE102009046108 B4 DE 102009046108B4
Authority
DE
Germany
Prior art keywords
tof
cameras
camera system
tof cameras
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102009046108.6A
Other languages
English (en)
Other versions
DE102009046108A1 (de
Inventor
Florian Forster
Javier Massanell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PMDtechnologies AG
Original Assignee
PMDtechnologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PMDtechnologies AG filed Critical PMDtechnologies AG
Priority to DE102009046108.6A priority Critical patent/DE102009046108B4/de
Priority to PCT/EP2010/066166 priority patent/WO2011051286A1/de
Publication of DE102009046108A1 publication Critical patent/DE102009046108A1/de
Application granted granted Critical
Publication of DE102009046108B4 publication Critical patent/DE102009046108B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

Kamerasystem mit mindestens zwei 3D-TOF-Kameras (200, 202), die als PMD-Kameras ausgebildet sind,und mit einer aktiven Beleuchtung (100) für beide 3D-TOF-Kameras (200, 202), wobei die beiden 3D-TOF-Kameras (200, 202) zur Erzielung eines Stereoeffektes versetzt zueinander angeordnet sind.wobei das Kamerasystem derart ausgestaltet ist, dass Distanz- und Amplitudenbilder der ersten und zweiten 3D-TOF-Kameras (200, 202) erfasst und ausgewertet werden und aus den Distanzbildern der ersten und zweiten 3D-TOF-Kamera (200, 202) ein erstes und zweites Raummodel und aus den stereoskopisch ausgewerteten Amplitudenbildern der beiden 3D-TOF-Kameras (200, 202) ein drittes Raummodel ermittelt wird.

Description

  • Die Erfindung betrifft ein Kamerasystem mit 3D-TOF-Kameras und einer aktiven Beleuchtung sowie ein Verfahren zum Betreiben eines solchen Kamerasystems nach der Gattung der unabhängigen Ansprüche
  • Aus dem Stand der Technik sind Systeme zur dreidimensionalen Bilderfassung bekannt, welche mit Hilfe einer aktiven Beleuchtung arbeiten. Dazu gehören so genannten Time-offlight- (TOF-) oder Laufzeitmesssysteme. Diese verwenden eine amplitudenmodulierte oder gepulste Beleuchtung, zur Ausleuchtung der zu erfassenden dreidimensionalen Szenerie.
  • Mit Kamerasystem soll insbesondere alle 3D-TOF-Kamerasysteme mit umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als 3D-TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u.a. in den Anmeldungen EP 1 777 747 B1 , US 6 587 186 B2 und auch DE 197 04 496 C2 beschrieben sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
  • Aus der DE 10 2008 006 449 A1 ist eine Vorrichtung zur Überwachung eines Raumvolumens bekannt, bei der beispielsweise eine Personenschleuse mit Hilfe von zwei TOF-Kameras überwacht wird. Die dreidimensionalen Raumbilder jeder TOF-Kamera werden gemeinsam so ausgewertet, dass nicht darstellbare Raumpunkte jeweils mithilfe von Raumbildern anderer TOF-Kameras ergänzt werden.
  • Aufgabe der Erfindung ist es, die Genauigkeit der erfassten Raumbilder zu verbessern.
  • Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Kamerasystem gelöst.
  • Erfindungsgemäß ist ein Kamerasystem mit mindestens zwei 3D-TOF-Kameras, insbesondere PMD-Kameras, und einer aktiven Beleuchtung vorgesehen, bei der die beiden 3D-TOF-Kameras, vorzugsweise zur Erzielung eines Stereoeffektes, versetzt zueinander angeordnet sind. Dieses Vorgehen hat den Vorteil, dass dreidimensionale Rauminformationen nicht nur redundant, nämlich durch Erfassung zweier Distanzbilder der beiden 3D-TOF-Kameras, sondern auch diversitär, durch Ausnutzung eines Stereoeffekts der beiden erfassten Amplitudenbilder, erfasst werden.
  • Im abhängigen Anspruch ist eine vorteilhafte Weiterbildung des Anspruchs 1 angegeben.
  • Die ermittelten Raummodelle ermöglichen es in vorteilhafter Weise, ein gemeinsames Raummodell zu erstellen bzw. zu vervollständigen.
  • Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert. Es zeigen:
    • 1 schematisch ein PMD-Kamerasystem,
    • 2 schematisch ein erfindungsgemäßes Kamerasystem,
    • 3 schematisch eine erfindungsgemäße Erfassungssituation,
  • 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einem TOF-Kamerasystem, wie es beispielsweise aus der DE 197 04 496 bekannt ist.
  • Das TOF-Kamerasystem umfasst hier eine Sendeeinheit bzw. eine aktive Beleuchtung 100 mit einer Lichtquelle 12 und einer dazugehörigen Strahlformungsoptik 50 sowie eine Empfangseinheit bzw. 3D-TOF-Kamera 200 mit einer Empfangsoptik 150 und einem Photosensor 15. Der Photosensor 15 ist vorzugsweise als Pixel-Array, insbesondere als PMD-Sensor, ausgebildet. Die Empfangsoptik besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 50 der Sendeeinheit 100 ist vorzugsweise als Reflektor ausgebildet. Es können jedoch auch diffraktive Elemente oder Kombinationen aus reflektierenden und diffraktiven Elementen eingesetzt werden.
  • Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasendifferenz des emittierten und empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle und der Photosensor 15 über einen Modulator 18 gemeinsam mit einer bestimmten Modulationsfrequenz mit einer ersten Phasenlage a beaufschlagt. Entsprechend der Modulationsfrequenz sendet die Lichtquelle 12 ein amplitudenmoduliertes Signal mit der Phase a aus. Dieses Signal bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 20 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben mit einer zweiten Phasenlage b auf den Photosensor 15. Im Photosensor 15 wird das Signal der ersten Phasenlage a des Modulators 18 mit dem empfangenen Signal, das mittlerweile eine zweite Phasenlage b angenommen hat, gemischt und aus dem resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung ermittelt.
  • 2 zeigt schematisch ein erfindungsgemäßes Kamerasystem mit einer gemeinsamen aktiven Beleuchtung 100 und einer ersten und zweiten 3D-TOF-Kamera 200, 202, die versetzt bzw. beabstandet voneinander angeordnet sind. Dieses System kann vorzugsweise, wie mit der gestrichelten Umrandung angedeutet, in einem gemeinsamen Gehäuse angeordnet sein. Je nach Anwendungsfall sind jedoch auch verschiedene Kombinationen denkbar. Beispielsweise könnte ein Kamerasystem gemäß 1 mit einer zusätzlichen, in einem separaten Gehäuse befindlichen, 3D-TOF-Kamera kombiniert werden. Selbstverständlich können auch alle Komponenten in einem separaten Gehäuse individuell angeordnet werden. Die aktive Beleuchtung 100 und die 3D-TOF-Kameras 200, 202 sind mit dem Modulator 18 verbunden und sind somit mit gleicher Modulationsfrequenz und Phasenlage beaufschlagt.
  • 3 zeigt schematisch die unterschiedlichen Erfassungsbereiche der beiden 3D-TOF-Kameras 200, 202. In vereinfachter Darstellung sind die beiden 3D-TOF-Kameras 202, 200 direkt nebeneinander angeordnet, wobei die aktive Beleuchtung 100 direkt an diese Doppeleinheit angrenzt. Im dargestellten Beispiel liegen die beiden Erfassungsbereiche E1, E2 der beiden 3D-TOF-Kameras 200, 202 innerhalb des durch die aktive Beleuchtung 100 aufgespannten Beleuchtungsfeld B. Wie aus der 3 zu ersehen ist, überlappen die beiden Erfassungsbereiche E1, E2 im Wesentlichen im mittleren Bereich des Beleuchtungsfeldes B. Aufgrund der versetzten Anordnung der beiden 3D-TOF-Kameras können nun die Amplitudenbilder im Überlappungsbereich stereoskopisch ausgewertet und dreidimensionale Rauminformationen gewonnen werden. In den nicht überlappenden Bereichen liegt zumindest von einer 3D-TOF-Kamera eine Raum- bzw. Distanzinformation vor.
  • Bei geeigneter Anordnung der beiden 3D-TOF-Kameras 200, 202 ist es jedoch ohne weiteres möglich, den Erfassungsbereich beider 3D-TOF-Kameras im Wesentlichen zur Deckung zu bringen, sodass eine maximal redundante bzw. diversitäre Information vorliegt.
  • Der Einsatz mindestens zweier 3D-TOF-Kameras hat zusätzlich zur Redundanz auch den Vorteil, dass durch die Erfassung eines Objekts aus verschiedenen Blickwinkeln insbesondere auch zunächst abgeschattete Bereiche erfasst werden können. Des Weiteren erlauben die diversitären und redundanten Daten, eine höhere Genauigkeit der 3D-TOF-Daten sowie ein höheres Sicherheitsniveau zu erreichen.
  • Durch den Einsatz von mindestens zwei 3D-TOF-Kameras können folgende Kamerainformationen zur Bestimmung der 3D-TOF-Positionen herangezogen werden:
    • - X,Y,Z-Daten von der ersten 3D-TOF-Kamera 200, wobei der Z-Wert bzw. Distanzwert jedes Pixels auf einer TOF-Messung basiert. Die X,Y-Werte basieren auf strahlengeometrischen Zusammenhängen aufgrund der verwendeten abbildeten Optik.
    • - X,Y,Z-Werte von der zweiten 3D-TOF-Kamera 202 in entsprechender Weise. X,Y-Werte von der ersten 3D-TOF-Kamera 200 ausgehend von dem Amplitudenbild basierend auf strahlengeometrischen Zusammenhängen aufgrund der verwendeten abbildenden Optik der 3D-TOF-Kamera 200.
  • X,Y-Werte von der zweiten 3D-TOF-Kamera 202 ausgehend von den Amplitudenbildern in entsprechender Weise.
    - Z-Wert aus der stereoskopischen Auswertung der X,Y-Werte der beiden 3D-TOF-Kameras.
  • Es sei bemerkt, dass die stereoskopische Auswertung nicht nur auf die Amplitudenbilder der beiden TOF-Kameras beschränkt ist, sondern dass auch die Distanzbilder der beiden Kameras stereoskopisch ausgewertet werden können.
  • In einer weiteren Ausgestaltung kann es vorgesehen sein, auch die Intensitätsbilder der beiden Kameras heranzuziehen. Die Intensitätsbilder bestehen hierbei vornehmlich aus Helligkeitswerte, die sowohl aus Anteilen des Umgebungslichts als auch aus Anteilen der aktiven Beleuchtung bestehen. Durch diese zusätzliche Auswertung kann die Genauigkeit und die Sicherheit des Gesamtsystems weiter verbessert werden.
  • Weiterhin ist es denkbar, mehr als zwei 3D-TOF-Kameras einzusetzen. Ein solches Vorgehen ist insbesondere dann von Vorteil, wenn sehr komplexe Objekte mit Hinterschneidungen oder Abschattungen zu erfassen sind. Die 3D-TOF-Kameras müssen hier nicht zwingend auf einer gemeinsamen Achse angeordnet sein, sondern können gegebenenfalls auch senkrecht zueinander stehen, sodass beispielsweise die Z-Dimension der einen Kamera durch die X-Dimension der anderen Kamera erfasst wird. Der erfindungsgemäße Einsatz mehrerer 3D-TOF-Kameras erlaubt es weit über die Möglichkeiten einer herkömmlichen Stereokamera, basierend auf ausschließlich Amplitudenbildern, hinaus zu gehen.

Claims (2)

  1. Kamerasystem mit mindestens zwei 3D-TOF-Kameras (200, 202), die als PMD-Kameras ausgebildet sind, und mit einer aktiven Beleuchtung (100) für beide 3D-TOF-Kameras (200, 202), wobei die beiden 3D-TOF-Kameras (200, 202) zur Erzielung eines Stereoeffektes versetzt zueinander angeordnet sind. wobei das Kamerasystem derart ausgestaltet ist, dass Distanz- und Amplitudenbilder der ersten und zweiten 3D-TOF-Kameras (200, 202) erfasst und ausgewertet werden und aus den Distanzbildern der ersten und zweiten 3D-TOF-Kamera (200, 202) ein erstes und zweites Raummodel und aus den stereoskopisch ausgewerteten Amplitudenbildern der beiden 3D-TOF-Kameras (200, 202) ein drittes Raummodel ermittelt wird.
  2. Kamerasystem nach Anspruch 1, bei dem alle Raummodelle zur Vervollständigung eines gemeinsamen Raummodels herangezogen werden.
DE102009046108.6A 2009-10-28 2009-10-28 Kamerasystem Active DE102009046108B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102009046108.6A DE102009046108B4 (de) 2009-10-28 2009-10-28 Kamerasystem
PCT/EP2010/066166 WO2011051286A1 (de) 2009-10-28 2010-10-26 Kamerasystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009046108.6A DE102009046108B4 (de) 2009-10-28 2009-10-28 Kamerasystem

Publications (2)

Publication Number Publication Date
DE102009046108A1 DE102009046108A1 (de) 2011-05-05
DE102009046108B4 true DE102009046108B4 (de) 2022-06-09

Family

ID=43088256

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009046108.6A Active DE102009046108B4 (de) 2009-10-28 2009-10-28 Kamerasystem

Country Status (2)

Country Link
DE (1) DE102009046108B4 (de)
WO (1) WO2011051286A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
DE102013007859B3 (de) * 2013-05-08 2014-09-25 Audi Ag Time-of-Flight-System mit räumlich voneinander getrennten Sendeeinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102013007886B3 (de) * 2013-05-08 2014-09-25 Audi Ag Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102014107799A1 (de) * 2014-06-03 2015-12-03 Sick Ag 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zur Erfassung von dreidimensionalen Bilddaten
DE102016109173A1 (de) * 2015-11-19 2017-05-24 Aesculap Ag Medizintechnische Koordinatenmessvorrichtung und medizintechnisches Koordinatenmessverfahren
DE102016113000A1 (de) 2016-07-14 2018-01-18 Aesculap Ag Endoskopische Vorrichtung und Verfahren zur endoskopischen Untersuchung
JP6404985B1 (ja) 2017-04-07 2018-10-17 ファナック株式会社 距離画像の異常を検出する撮像装置
DE102017107903A1 (de) * 2017-04-12 2018-10-18 Sick Ag 3D-Lichtlaufzeitkamera und Verfahren zur Erfassung dreidimensionaler Bilddaten
DE102017210489A1 (de) * 2017-06-22 2018-12-27 Continental Automotive Gmbh Fahrerassistenzsystem zur Validierung von Messdaten

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
EP1777747B1 (de) 2005-10-19 2008-03-26 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern
DE102008006449A1 (de) 2008-01-29 2009-07-30 Kaba Gallenschütz GmbH Verfahren und Vorrichtung zur Überwachung eines Raumvolumens

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10047170C2 (de) * 2000-09-22 2002-09-19 Siemens Ag PMD-System
US20090115993A1 (en) * 2005-09-30 2009-05-07 Gunter Doemens Device and Method for Recording Distance Images
DE102007004349A1 (de) * 2007-01-29 2008-07-31 Robert Bosch Gmbh Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
DE202008007078U1 (de) * 2008-05-26 2008-09-04 Signalbau Huber Gmbh Videodetektion mit PMD-Sensorik

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
DE19704496C2 (de) 1996-09-05 2001-02-15 Rudolf Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
EP1777747B1 (de) 2005-10-19 2008-03-26 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern
DE102008006449A1 (de) 2008-01-29 2009-07-30 Kaba Gallenschütz GmbH Verfahren und Vorrichtung zur Überwachung eines Raumvolumens

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Kim, Y.M., et al., Design and Calibration of a Multi-view TOF Sensor Fusion System. IEEE Computer Vision and Pattern Recognition Workshops, 23.-28.06.2008, Abstract.
Kim, Y.M., et al., Design and Calibration of a Multi-view TOF Sensor Fusion System. IEEE Computer Vision and Pattern Recognition Workshops, 23.-28.06.2008, Seiten 1-7.
Kim, Y.M., et al., Multi-view Image and ToF Sensor Fusion for Dense 3D Reconstruction. IEEE 12th International Conference on Computer Vision Workshops, 27.09.-04.10.2009, Abstract.
Kim, Y.M., et al., Multi-view Image and ToF Sensor Fusion for Dense 3D Reconstruction. IEEE 12th International Conference on Computer Vision Workshops, 27.09.-04.10.2009, Seiten 1542-1549.

Also Published As

Publication number Publication date
DE102009046108A1 (de) 2011-05-05
WO2011051286A1 (de) 2011-05-05

Similar Documents

Publication Publication Date Title
DE102009046108B4 (de) Kamerasystem
DE102014104712B4 (de) Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern
DE102010003409B4 (de) Lichtlaufzeit-Kamera
EP2202994B1 (de) 3D-Kamera zur Raumüberwachung
EP2019281B1 (de) Verfahren zum Betrieb eines 3D-Sensors
DE102009045600A1 (de) Kamerasystem
DE102013007886B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102012023623A1 (de) Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes
DE102005028490C5 (de) Kamerasystem
DE102010043723B4 (de) Lichtlaufzeitkamerasystem
DE102005014525B4 (de) Vorrichtung zur Bestimmung von Raumkoordinaten von Objektoberflächen
WO2009132761A1 (de) Entfernungsmesssystem
DE102013007961B4 (de) Optisches Messsystem für ein Fahrzeug
DE10246147A1 (de) Mehrkamera-Trackingsystem
DE102015205927B4 (de) Entfernungsmesssystem mit Lichtlaufzeitmessung und Triangulation
DE202013104715U1 (de) Sensor mit um Drehachse beweglicher Abtasteinheit
DE102013007859B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Sendeeinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102009045553B4 (de) Lichtlaufzeit-Messsystem
DE102014104713A1 (de) Registrierung einer in Cluster zerfallenden Szene mit Paaren von Scans
DE102010036852A1 (de) Stereokamera
EP2270424B1 (de) Optoelektronischer Sensor und Verfahren zur Überwachung
DE102009045558B4 (de) Kamerasystem
DE102010003411A1 (de) Lichtlaufzeit-Kamera
DE102011007464A1 (de) Verfahren und Vorrichtung zur Visualisierung einer Szene
EP3496398B1 (de) Sichere stereokamera und verfahren zum prüfen der funktionsfähigkeit der bildsensoren

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R163 Identified publications notified
R163 Identified publications notified

Effective date: 20110809

R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: IFM ELECTRONIC GMBH, 45128 ESSEN, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0013020000

Ipc: H04N0013200000

R081 Change of applicant/patentee

Owner name: PMDTECHNOLOGIES AG, DE

Free format text: FORMER OWNER: PMDTECHNOLOGIES AG, 57076 SIEGEN, DE

R082 Change of representative

Representative=s name: SCHUHMANN, JOERG, DIPL.-PHYS. DR. RER. NAT., DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final