WO2011051286A1 - Kamerasystem - Google Patents
Kamerasystem Download PDFInfo
- Publication number
- WO2011051286A1 WO2011051286A1 PCT/EP2010/066166 EP2010066166W WO2011051286A1 WO 2011051286 A1 WO2011051286 A1 WO 2011051286A1 EP 2010066166 W EP2010066166 W EP 2010066166W WO 2011051286 A1 WO2011051286 A1 WO 2011051286A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- tof
- camera
- cameras
- camera system
- images
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
Definitions
- the invention relates to a camera system with at least two
- Runtime measurement systems These use amplitude modulated or pulsed illumination to illuminate the area to be detected
- 3D TOF cameras are in particular PMD cameras with
- Photonic mixer (PMD) suitable as u.a. in the applications EP 1 777 747, US 6 587 186 and also DE 197 04 496 described and, for example, by the company, ifm electronic gmbh 'as a frame grabber O3D are available.
- the PMD camera allows a flexible arrangement of the light source and the detector, which can be arranged both in a housing and separately.
- the object of the invention is to improve the accuracy of the captured room images.
- a camera system with at least two
- 3D TOF cameras in particular PMD cameras, and an active lighting provided in which the two 3D TOF cameras, preferably to achieve a stereo effect, offset from each other.
- This approach has the advantage that three-dimensional spatial information not only redundant, namely by detecting two distance images of the two 3D TOF cameras, but also diversified, by Taking advantage of a stereo effect of the two detected amplitude images are detected.
- 3D TOF camera captured and evaluated.
- FIG. 1 schematically shows a PMD camera system
- FIG. 2 shows schematically a camera system according to the invention
- FIG. 3 schematically shows a detection situation according to the invention
- Figure 1 shows a measurement situation for an optical distance measurement with a TOF camera system, as it is known for example from DE 197 04 496.
- the TOF camera system here comprises a transmitting unit or an active illumination 100 with a light source 12 and an associated one
- Photosensor 15 is preferably as a pixel array, in particular as PMD sensor, designed.
- the receiving optics typically consist of improving the imaging properties of a plurality of optical elements.
- the beam-shaping optical system 50 of the transmitting unit 100 is preferably designed as a reflector. However, it is also possible to use diffractive elements or combinations of reflective and diffractive elements.
- the measuring principle of this arrangement is essentially based on the fact that based on the phase difference of the emitted and received light, the duration of the emitted and reflected light can be determined.
- the light source and the photosensor 15 via a modulator 18 together with a specific
- Modulation frequency applied to a first phase position a is Modulation frequency applied to a first phase position a.
- the light source 12 transmits an amplitude-modulated signal having the phase a.
- this signal or the electromagnetic radiation is reflected by an object 20 and hits due to the distance covered
- Phase position a of the modulator 18 with the received signal which has meanwhile assumed a second phase position b, mixed and from the resulting signal, the phase shift or the
- FIG. 2 shows schematically a camera system according to the invention with a common active illumination 100 and a first and second 3 D-TO F camera 200, 202 which are offset or spaced from each other.
- This system may preferably, as indicated by the dashed border, in a common
- Housing be arranged.
- various combinations are conceivable. For example, a
- Housings are arranged individually.
- the active lighting 100 and the 3D TOF cameras 200, 202 are connected to the modulator 18 and are thus with the same modulation frequency and phase angle
- Figure 3 shows schematically the different detection ranges of the two 3D TOF cameras 200, 202.
- the two 3D TOF cameras 202, 200 are arranged directly adjacent to each other, wherein the active illumination 100 directly adjacent to this double unit.
- the two detection ranges E1, E2 of the two 3D TOF cameras 200, 202 are within the range determined by the active one
- the two detection regions E1, E2 substantially overlap in the middle region of the illumination field B. Due to the staggered arrangement of the two 3D TOF cameras, the amplitude images in the overlapping region can now be stereoscopically evaluated and three-dimensional spatial information is obtained. In the non-overlapping regions, space or distance information is present at least by a 3D TOF camera.
- 3D TOF cameras substantially to bring cover so that a maximum of redundant or diverse information is present.
- Redundancy also has the advantage that by capturing an object from different angles, especially from first
- the diverse and redundant data allow to achieve a higher accuracy of the 3D TOF data as well as a higher security level.
- the ⁇ , ⁇ values are based on radiation geometry Contexts due to the used imaged optics.
- Amplitude image based on radiometric relationships due to the used imaging optics of the 3D TOF camera 200.
- the stereoscopic evaluation is not limited to the amplitude images of the two TOF cameras, but that the distance images of the two cameras can be stereoscopically evaluated.
- the intensity images consist primarily of brightness values that are both
- the 3D TOF cameras do not necessarily have to be arranged on a common axis, but may possibly also be perpendicular to one another, so that, for example, the
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Kamerasystem mit mindestens zwei TOF-Empfängern und einer aktiven Beleuchtung, bei dem die beiden TOF-Empfänger zur Erzielung eines Stereoeffektes versetzt zueinander angeordnet sind.
Description
Beschreibung
KAMERASYSTEM
[0001] Die Erfindung betrifft ein Kamera System mit mindestens zwei
3D-TOF-Kameras und einer aktiven Beleuchtung sowie ein Verfahren zum Betreiben eines solchen Kamerasystems nach der Gattung der
unabhängigen Ansprüche
[0002] Aus dem Stand der Technik sind Systeme zur dreidimensionalen
Bilderfassung bekannt, welche mit Hilfe einer aktiven Beleuchtung arbeiten. Dazu gehören so genannten Time-of-flight- (TOF-) oder
Laufzeitmesssysteme. Diese verwenden eine amplitudenmodulierte oder gepulste Beleuchtung, zur Ausleuchtung der zu erfassenden
dreidimensionalen Szenerie.
[0003] Mit Kamerasystem soll insbesondere alle 3D-TOF-Kamerasysteme mit umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als
3D-TOF-Kameras sind insbesondere PMD-Kameras mit
Photomischdetektoren (PMD) geeignet, wie sie u.a. in den Anmeldungen EP 1 777 747, US 6 587 186 und auch DE 197 04 496 beschrieben und beispielsweise von der Firma ,ifm electronic gmbh' als Frame-Grabber O3D zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
[0004] Aufgabe der Erfindung ist es, die Genauigkeit der erfassten Raumbilder zu verbessern.
[0005] Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße
Kamerasystem gelöst.
[0006] Erfindungsgemäß ist ein Kamerasystem mit mindestens zwei
3D-TOF-Kameras, insbesondere PMD-Kameras, und einer aktiven Beleuchtung vorgesehen, bei der die beiden 3D-TOF-Kameras, vorzugsweise zur Erzielung eines Stereoeffektes, versetzt zueinander angeordnet sind. Dieses Vorgehen hat den Vorteil, dass dreidimensionale Rauminformationen nicht nur redundant, nämlich durch Erfassung zweier Distanzbilder der beiden 3D-TOF-Kameras, sondern auch diversitär, durch
Ausnutzung eines Stereoeffekts der beiden erfassten Amplitudenbilder, erfasst werden.
[0007] Dieser Vorteil schlägt sich auch im erfindungsgemäßen Verfahren nieder, bei dem Distanz- und Amplitudenbilder der ersten und zweiten
3D-TOF-Kamera erfasst und ausgewertet werden.
[0008] Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der in den
unabhängigen Ansprüchen angegebenen Erfindung möglich.
[0009] In einer weiteren vorteilhaften Ausführungsform ist es vorgesehen, jeder 3D-TOF-Kamera eine eigene aktive Beleuchtung zuzuweisen, wobei beide Beleuchtungen miteinander synchronisiert sind. Dieses Vorgehen ist insbesondere dann sinnvoll, wenn bereits vollständig konfektionierte Kamerasysteme in Kombination eingesetzt werden sollen.
[0010] Ferner sieht ein Verfahren zum Betreiben des Kamerasystems
zweckmäßigerweise vor, dass aus den Distanzbildern der ersten und zweiten 3D-TOF-Kamera ein erstes und zweites Raummodell und aus den stereoskopisch ausgewerteten Amplitudenbildern der beiden
3D-TOF-Kameras ein drittes Raummodell ermittelt wird.
[001 1] Die ermittelten Raummodelle ermöglichen es in vorteilhafter Weise, ein gemeinsames Raummodell zu erstellen bzw. zu vervollständigen.
[0012] Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert. Es zeigen:
[0013] Figur 1 schematisch ein PMD-Kamerasystem,
Figur 2 schematisch ein erfindungsgemäßes Kamerasystem,
Figur 3 schematisch eine erfindungsgemäße Erfassungssituation,
[0014] Figur 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einem TOF-Kamerasystem, wie es beispielsweise aus der DE 197 04 496 bekannt ist.
[0015] Das TOF-Kamerasystem umfasst hier eine Sendeeinheit bzw. eine aktive Beleuchtung 100 mit einer Lichtquelle 12 und einer dazugehörigen
Strahlformungsoptik 50 sowie eine Empfangseinheit bzw. 3D-TOF-Kamera 200 mit einer Empfangsoptik 150 und einem Photosensor 15. Der
Photosensor 15 ist vorzugsweise als Pixel-Array, insbesondere als
PMD-Sensor, ausgebildet. Die Empfangsoptik besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 50 der Sendeeinheit 100 ist vorzugsweise als Reflektor ausgebildet. Es können jedoch auch diffraktive Elemente oder Kombinationen aus reflektierenden und diffraktiven Elementen eingesetzt werden.
[0016] Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasendifferenz des emittierten und empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle und der Photosensor 15 über einen Modulator 18 gemeinsam mit einer bestimmten
Modulationsfrequenz mit einer ersten Phasenlage a beaufschlagt.
Entsprechend der Modulationsfrequenz sendet die Lichtquelle 12 ein amplitudenmoduliertes Signal mit der Phase a aus. Dieses Signal bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 20 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke
entsprechend phasenverschoben mit einer zweiten Phasenlage b auf den Photosensor 15. Im Photosensor 15 wird das Signal der ersten
Phasenlage a des Modulators 18 mit dem empfangenen Signal, das mittlerweile eine zweite Phasenlage b angenommen hat, gemischt und aus dem resultierenden Signal die Phasenverschiebung bzw. die
Objektentfernung ermittelt.
[0017] Figur 2 zeigt schematisch ein erfindungsgemäßes Kamerasystem mit einer gemeinsamen aktiven Beleuchtung 100 und einer ersten und zweiten 3 D-TO F- Kamera 200, 202, die versetzt bzw. beabstandet voneinander angeordnet sind. Dieses System kann vorzugsweise, wie mit der gestrichelten Umrandung angedeutet, in einem gemeinsamen
Gehäuse angeordnet sein. Je nach Anwendungsfall sind jedoch auch verschiedene Kombinationen denkbar. Beispielsweise könnte ein
Kamerasystem gemäß Fig. 1 mit einer zusätzlichen, in einem separaten Gehäuse befindlichen, 3D-TOF-Kamera kombiniert werden.
Selbstverständlich können auch alle Komponenten in separaten
Gehäusen individuell angeordnet werden. Die aktive Beleuchtung 100 und
die 3D-TOF-Kameras 200, 202 sind mit dem Modulator 18 verbunden und sind somit mit gleicher Modulationsfrequenz und Phasenlage
beaufschlagt.
[0018] Figur 3 zeigt schematisch die unterschiedlichen Erfassungsbereiche der beiden 3D-TOF-Kameras 200, 202. In vereinfachter Darstellung sind die beiden 3D-TOF-Kameras 202, 200 direkt nebeneinander angeordnet, wobei die aktive Beleuchtung 100 direkt an diese Doppeleinheit angrenzt. Im dargestellten Beispiel liegen die beiden Erfassungsbereiche E1 , E2 der beiden 3D-TOF-Kameras 200, 202 innerhalb des durch die aktive
Beleuchtung 100 aufgespannten Beleuchtungsfeld B. Wie aus der Figur 3 zu ersehen ist, überlappen die beiden Erfassungsbereiche E1 , E2 im Wesentlichen im mittleren Bereich des Beleuchtungsfeldes B. Aufgrund der versetzten Anordnung der Beiden 3D-TOF-Kameras können nun die Amplitudenbilder im Überlappungsbereich stereoskopisch ausgewertet und dreidimensionale Rauminformationen gewonnen werden. In den nicht überlappenden Bereichen liegt zumindest von einer 3D-TOF-Kamera eine Raum- bzw. Distanzinformation vor.
[0019] Bei geeigneter Anordnung der beiden 3D-TOF-Kameras 200, 202 ist es jedoch ohne weiteres möglich, den Erfassungsbereich beider
3D-TOF-Kameras im Wesentlichen zur Deckung zu bringen, sodass eine maximal redundante bzw. diversitäre Information vorliegt.
[0020] Der Einsatz mindestens zweier 3D-TOF-Kameras hat zusätzlich zur
Redundanz auch den Vorteil, dass durch die Erfassung eines Objekts aus verschiedenen Blickwinkeln, insbesondere auch aus zunächst
abgeschatteten Bereichen, erfasst werden können. Des Weiteren erlauben die diversitären und redundanten Daten, eine höhere Genauigkeit der 3D-TOF-Daten sowie ein höheres Sicherheitsniveau zu erreichen.
[0021] Durch den Einsatz von mindestens zwei 3D-TOF-Kameras können
folgende Kamerainformationen zur Bestimmung der 3D-TOF-Positionen herangezogen werden:
[0022] Χ,Υ,Ζ-Daten von der ersten 3D-TOF-Kamera 200 ausgehend vom
Distanzbild, wobei der Z-Wert bzw. Distanzwert jedes Pixels auf einer TOF-Messung basiert. Die Χ,Υ-Werte basieren auf strahlengeometrischen
Zusammenhängen aufgrund der verwendeten abbildeten Optik.
[0023] Χ,Υ,Ζ-Werte von der zweiten 3D-TOF-Kamera 202 in entsprechender Weise.
[0024] Χ,Υ-Werte von der ersten 3D-TOF-Kamera 200 ausgehend von dem
Amplitudenbild basierend auf strahlengeometrischen Zusammenhängen aufgrund der verwendeten abbildenden Optik der 3D-TOF-Kamera 200.
[0025] Χ,Υ-Werte von der zweiten 3D-TOF-Kamera 202 ausgehend von den
Amplitudenbildern in entsprechender Weise.
[0026] Z-Wert aus der stereoskopischen Auswertung der Χ,Υ-Werte der beiden 3D-TOF-Kameras.
[0027] Es sei bemerkt, dass die stereoskopische Auswertung nicht nur auf die Amplitudenbilder der beiden TOF-Kameras beschränkt ist, sondern dass auch die Distanzbilder der beiden Kameras stereoskopisch ausgewertet werden können.
[0028] In einer weiteren Ausgestaltung kann es vorgesehen sein, auch die
Intensitätsbilder der beiden Kameras heranzuziehen. Die Intensitätsbilder bestehen hierbei vornehmlich aus Helligkeitswerte, die sowohl aus
Anteilen des Umgebungslichts als auch aus Anteilen der aktiven
Beleuchtung bestehen. Durch diese zusätzliche Auswertung kann die Genauigkeit und die Sicherheit des Gesamtsystems weiter verbessert werden.
[0029] Weiterhin ist es denkbar, mehr als zwei 3D-TOF-Kameras einzusetzen.
Ein solches Vorgehen ist insbesondere dann von Vorteil, wenn sehr komplexe Objekte mit Hinterschneidungen oder Abschattungen zu erfassen sind. Die 3D-TOF-Kameras müssen hier nicht zwingend auf einer gemeinsamen Achse angeordnet sein, sondern können gegebenenfalls auch senkrecht zueinander stehen, sodass beispielsweise die
Z-Dimension der einen Kamera durch die X-Dimension der anderen Kamera erfasst wird. Der erfindungsgemäße Einsatz mehrerer
3D-TOF-Kameras erlaubt es weit über die Möglichkeiten einer
herkömmlichen Stereokamera, basierend auf ausschließlich
Amplitudenbildern, hinaus zu gehen.
Claims
1. Kamerasystem mit mindestens zwei 3D-TOF-Kameras (200, 202),
insbesondere PM D-Kameras, und einer aktiven Beleuchtung (100),
dadurch gekennzeichnet,
dass die beiden 3D-TOF-Kameras (200, 202), vorzugsweise zur Erzielung eines Stereoeffektes, versetzt zueinander angeordnet sind.
2. Kamerasystem nach Anspruch 1 , bei dem jede 3 D-TO F- Kamera (200, 202), eine eigene aktive Beleuchtung (100) aufweist und beide Beleuchtungen (100) miteinander synchronisiert sind.
3. Verfahren für ein Kamerasystem nach einem der vorhergehenden Ansprüche, bei dem Distanz- und Amplitudenbilder der ersten und zweiten
3D-TOF-Kameras (200, 202), erfasst und ausgewertet werden.
4. Verfahren nach Anspruch 3, bei dem aus den Distanzbildern der ersten und zweiten 3D-TOF-Kamera (200, 202) ein erstes und zweites Raummodel und aus den stereoskopisch ausgewerteten Amplitudenbilder der beiden
3D-TOF-Kameras (200, 202) ein drittes Raummodel ermittelt wird.
5. Verfahren nach Anspruch 4, bei dem alle Raummodelle zur Vervollständigung eines gemeinsamen Raummodels herangezogen werden.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009046108.6A DE102009046108B4 (de) | 2009-10-28 | 2009-10-28 | Kamerasystem |
DE102009046108.6 | 2009-10-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2011051286A1 true WO2011051286A1 (de) | 2011-05-05 |
Family
ID=43088256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2010/066166 WO2011051286A1 (de) | 2009-10-28 | 2010-10-26 | Kamerasystem |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102009046108B4 (de) |
WO (1) | WO2011051286A1 (de) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9720089B2 (en) | 2012-01-23 | 2017-08-01 | Microsoft Technology Licensing, Llc | 3D zoom imager |
DE102013007859B3 (de) * | 2013-05-08 | 2014-09-25 | Audi Ag | Time-of-Flight-System mit räumlich voneinander getrennten Sendeeinrichtungen und Verfahren zur Abstandsmessung von einem Objekt |
DE102013007886B3 (de) * | 2013-05-08 | 2014-09-25 | Audi Ag | Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt |
DE102014107799A1 (de) * | 2014-06-03 | 2015-12-03 | Sick Ag | 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zur Erfassung von dreidimensionalen Bilddaten |
DE102016109173A1 (de) * | 2015-11-19 | 2017-05-24 | Aesculap Ag | Medizintechnische Koordinatenmessvorrichtung und medizintechnisches Koordinatenmessverfahren |
DE102016113000A1 (de) | 2016-07-14 | 2018-01-18 | Aesculap Ag | Endoskopische Vorrichtung und Verfahren zur endoskopischen Untersuchung |
JP6404985B1 (ja) | 2017-04-07 | 2018-10-17 | ファナック株式会社 | 距離画像の異常を検出する撮像装置 |
DE102017107903A1 (de) * | 2017-04-12 | 2018-10-18 | Sick Ag | 3D-Lichtlaufzeitkamera und Verfahren zur Erfassung dreidimensionaler Bilddaten |
DE102017210489A1 (de) * | 2017-06-22 | 2018-12-27 | Continental Automotive Gmbh | Fahrerassistenzsystem zur Validierung von Messdaten |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19704496A1 (de) | 1996-09-05 | 1998-03-12 | Rudolf Prof Dr Ing Schwarte | Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle |
US20010048519A1 (en) * | 2000-06-06 | 2001-12-06 | Canesta, Inc, | CMOS-Compatible three-dimensional image sensing using reduced peak energy |
WO2002025805A2 (de) * | 2000-09-22 | 2002-03-28 | Siemens Aktiengesellschaft | Photoelektronische mischschaltung |
WO2007036553A1 (de) * | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Vorrichtung und verfahren zur aufnahme von entfernungsbildern |
EP1777747A1 (de) | 2005-10-19 | 2007-04-25 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern |
EP1950583A1 (de) * | 2007-01-29 | 2008-07-30 | Robert Bosch Gmbh | Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes |
DE202008007078U1 (de) * | 2008-05-26 | 2008-09-04 | Signalbau Huber Gmbh | Videodetektion mit PMD-Sensorik |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008006449A1 (de) | 2008-01-29 | 2009-07-30 | Kaba Gallenschütz GmbH | Verfahren und Vorrichtung zur Überwachung eines Raumvolumens |
-
2009
- 2009-10-28 DE DE102009046108.6A patent/DE102009046108B4/de active Active
-
2010
- 2010-10-26 WO PCT/EP2010/066166 patent/WO2011051286A1/de active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19704496A1 (de) | 1996-09-05 | 1998-03-12 | Rudolf Prof Dr Ing Schwarte | Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle |
US20010048519A1 (en) * | 2000-06-06 | 2001-12-06 | Canesta, Inc, | CMOS-Compatible three-dimensional image sensing using reduced peak energy |
US6587186B2 (en) | 2000-06-06 | 2003-07-01 | Canesta, Inc. | CMOS-compatible three-dimensional image sensing using reduced peak energy |
WO2002025805A2 (de) * | 2000-09-22 | 2002-03-28 | Siemens Aktiengesellschaft | Photoelektronische mischschaltung |
WO2007036553A1 (de) * | 2005-09-30 | 2007-04-05 | Siemens Aktiengesellschaft | Vorrichtung und verfahren zur aufnahme von entfernungsbildern |
EP1777747A1 (de) | 2005-10-19 | 2007-04-25 | CSEM Centre Suisse d'Electronique et de Microtechnique SA | Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern |
EP1950583A1 (de) * | 2007-01-29 | 2008-07-30 | Robert Bosch Gmbh | Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes |
DE202008007078U1 (de) * | 2008-05-26 | 2008-09-04 | Signalbau Huber Gmbh | Videodetektion mit PMD-Sensorik |
Non-Patent Citations (1)
Title |
---|
YOUNG MIN KIM ET AL: "Multi-view image and ToF sensor fusion for dense 3D reconstruction", 2009 IEEE 12TH INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOPS, ICCV WORKSHOPS : KYOTO, JAPAN, 27 SEPTEMBER - 4 OCTOBER 2009, INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS, PISCATAWAY, NJ, 27 September 2009 (2009-09-27), pages 1542 - 1549, XP031664460, ISBN: 978-1-4244-4442-7 * |
Also Published As
Publication number | Publication date |
---|---|
DE102009046108A1 (de) | 2011-05-05 |
DE102009046108B4 (de) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011051286A1 (de) | Kamerasystem | |
EP1933167B1 (de) | Optoelektronischer Sensor sowie Verfahren zur Erfassung und Abstandsbestimmung eines Objekts | |
DE102013111547B4 (de) | Sensor mit um Drehachse beweglicher Abtasteinheit | |
DE102010003409B4 (de) | Lichtlaufzeit-Kamera | |
EP2202994B1 (de) | 3D-Kamera zur Raumüberwachung | |
EP2019281B1 (de) | Verfahren zum Betrieb eines 3D-Sensors | |
DE102009045600A1 (de) | Kamerasystem | |
DE102008016766B4 (de) | Sicherheitskamera und Verfahren zur Detektion von Objekten | |
DE102013007886B3 (de) | Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt | |
DE102010043723B4 (de) | Lichtlaufzeitkamerasystem | |
WO2009132761A1 (de) | Entfernungsmesssystem | |
DE202013104715U1 (de) | Sensor mit um Drehachse beweglicher Abtasteinheit | |
DE102013007859B3 (de) | Time-of-Flight-System mit räumlich voneinander getrennten Sendeeinrichtungen und Verfahren zur Abstandsmessung von einem Objekt | |
DE102010036852C5 (de) | Stereokamera | |
DE102011017707A1 (de) | Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera | |
DE102016219518A1 (de) | Lichtlaufzeitkamerasystem | |
DE102009045553B4 (de) | Lichtlaufzeit-Messsystem | |
EP2270424B1 (de) | Optoelektronischer Sensor und Verfahren zur Überwachung | |
DE102014204423B4 (de) | Lichtlaufzeitkamerasystem | |
DE102010055865A1 (de) | Kameravorrichtung für einen Kraftwagen | |
WO2019110206A1 (de) | Lidar-system zur umfelderfassung und verfahren zum betreiben eines lidar-systems | |
DE102011007464A1 (de) | Verfahren und Vorrichtung zur Visualisierung einer Szene | |
DE102010003411A1 (de) | Lichtlaufzeit-Kamera | |
DE102009045558A1 (de) | Kamerasystem | |
EP3126866B1 (de) | Erfassungseinrichtung, insbesondere zur nutzung in einem kraftfahrzeug und kraftfahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10773042 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10773042 Country of ref document: EP Kind code of ref document: A1 |