DE102019124141A1 - Time-of-flight camera system - Google Patents
Time-of-flight camera system Download PDFInfo
- Publication number
- DE102019124141A1 DE102019124141A1 DE102019124141.3A DE102019124141A DE102019124141A1 DE 102019124141 A1 DE102019124141 A1 DE 102019124141A1 DE 102019124141 A DE102019124141 A DE 102019124141A DE 102019124141 A1 DE102019124141 A1 DE 102019124141A1
- Authority
- DE
- Germany
- Prior art keywords
- time
- camera system
- flight camera
- emitters
- phase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4911—Transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4918—Controlling received signal intensity, gain or exposure of sensor
Abstract
Lichtlaufzeitkamerasystem mi einer Beleuchtung aus mehreren modulierbaren Einzelemittern, wobei die Emitter einzeln oder in Gruppen einschaltbar sindTime-of-flight camera system with lighting from several modulatable individual emitters, whereby the emitters can be switched on individually or in groups
Description
Die Erfindung betrifft ein Lichtlaufzeitkamerasystem und ein Verfahren zum Betreiben eines solchen nach Gattung der unabhängigen Ansprüche.The invention relates to a time-of-flight camera system and a method for operating such a system according to the preamble of the independent claims.
Mit Lichtlaufzeitkamerasystem sollen hier insbesondere Systeme umfasst sein, die Entfernungen direkt aus der Lichtlaufzeit ermitteln oder die Lichtlaufzeit aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. 3D-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie u.a. in der
Aus der
Aufgabe der Erfindung ist es, die Entfernungsmessung eines Lichtlaufzeitkamerasystems zu verbessern.The object of the invention is to improve the distance measurement of a time-of-flight camera system.
Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße Lichtlaufzeitkamerasystem und Verfahren nach Gattung der unabhängigen Ansprüche gelöst.The object is achieved in an advantageous manner by the time-of-flight camera system and method according to the preamble of the independent claims.
Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.The invention is explained in more detail below on the basis of exemplary embodiments with reference to the drawings.
Es zeigen:
-
1 schematisch ein Lichtlaufzeitkamerasystem, -
2 eine modulierte Integration erzeugter Ladungsträger, -
3 einen Querschnitt durch einen PMD-Lichtlaufzeitsensor mit Potentialverteilung, -
4 einen zeitlichen Verlauf der Integrationsspannungen an einem Lichtlaufzeitpixel, -
5 Verläufe der Ladungsintegration abhängig von der Phasenverschiebung und -lage, -
6 eine Relation der Phasenverschiebung in einem IQ-Diagramm, -
7 einen Modulationsverlauf über vier Phasenlagen, -
8 ein erfindungsgemäßes Punktemuster.
-
1 schematically a time-of-flight camera system, -
2 a modulated integration of generated charge carriers, -
3 a cross section through a PMD time-of-flight sensor with potential distribution, -
4th a temporal course of the integration voltages at a light transit time pixel, -
5 Course of the charge integration depending on the phase shift and position, -
6th a relation of the phase shift in an IQ diagram, -
7th a modulation curve over four phase positions, -
8th a pattern of dots according to the invention.
Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.In the following description of the preferred embodiments, the same reference symbols designate the same or comparable components.
Das Lichtlaufzeitkamerasystem
Der Lichtlaufzeitsensor
Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle
Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle
Ferner weist das System ein Modulationssteuergerät
Als Beleuchtungsquelle bzw. Lichtquelle
Das Grundprinzip der Phasenmessung ist schematisch in
In
In
Bei einem Auftreffen des Signals
Mit zunehmender Phasenverschiebung nimmt die am ersten Integrationsknoten
Mathematisch handelt es sich hierbei um eine Korrelationsfunktion des empfangenen Signals
Bei einer Modulation mit einem Rechtecksignal ergibt sich wie bereits dargestellt als Korrelationsfunktion eine Dreiecksfunktion. Bei einer Modulation mit beispielsweise einem Sinussignal wäre das Ergebnis eine Kosinusfunktion.In the case of modulation with a square-wave signal, a triangular function results as the correlation function. In the case of modulation with a sine signal, for example, the result would be a cosine function.
Wie
Zur maximalen Erfassung der Phasenverschiebung ist beispielsweise das IQ(Inphase-Quadratur) Verfahren bekannt, bei dem zwei Messungen mit um 90° verschobenen Phasenlagen durchgeführt werden, also beispielsweise mit der Phasenlage φvar = 0° und (φvar = 90°. Das Ergebnis einer Messung mit der Phasenlage (φvar = 90° ist in
Die Beziehung dieser beiden Kurven lässt sich in bekannter Weise beispielsweise für sinusförmige Kurvenverläufe in einem IQ-Diagramm gem.
Der Phasenwinkel lässt sich dann in bekannter Weise über eine arctan-Funktion bzw. arctan2-Funktion bestimmen:
Aufgrund des linearen Zusammenhangs zwischen Ladung und Spannung, lässt sich der Phasenwinkel ebenso über die Spannungsdifferenzen bestimmen:
Um beispielsweise Asymmetrien des Sensors zu kompensieren, können zusätzliche um 180° verschobene Phasenmessungen durchgeführt werden, so dass sich im Ergebnis der Phasenwinkel wie folgt bestimmen lässt.
Oder verkürzt formuliert:
Aus der Phasenverschiebung
In
In bisherigen ToF Systemen wird der 4 Phasen Algorithmus verwendet, um innerhalb eines Eindeutigkeitsbereichs die Phasenlage zu bestimmen. Bei diesem Algorithmus werden vier Stützstellen, die äquidistant im Eindeutigkeitsbereich von 0 bis 2π mit gleicher Modulationsfrequenz ermittelt und anschließend die Phasenlage der Grundwelle, die durch diese Stützstellen verläuft, berechnet. Der Eindeutigkeitsbereich wird durch einen Transformationsfaktor vom Bogenmaß in eine Distanz überführt.In previous ToF systems, the 4-phase algorithm is used to determine the phase position within a range of unambiguity. With this algorithm, four support points are determined, which are equidistant in the uniqueness range from 0 to 2π with the same modulation frequency, and then the phase position of the fundamental wave, which runs through these support points, is calculated. The uniqueness area is converted from radians to a distance by a transformation factor.
Objekte in Abständen, die in Vielfachen dieses Eindeutigkeitsbereichs liegen (0 bis 2π), führen zu Mehrdeutigkeiten der Phasenlage. Diese Mehrdeutigkeiten können durch eine weitere Phasenmessung bzw. durch eine erneute Anwendung des 4 Phasenalgorithmus mit anderen, typischerweise einer niedrigeren Modulationsfrequenz in eine eindeutige Phasenlage überführt werden. Dieses Vorgehen impliziert demnach mindestens 8 Messungen bis ein eindeutiger Distanzwert berechnet werden kann.Objects lead at distances that are in multiples of this uniqueness range (0 to 2π) to ambiguities of the phase position. These ambiguities can be converted into a clear phase position by a further phase measurement or by applying the 4 phase algorithm again with another, typically a lower, modulation frequency. This procedure therefore implies at least 8 measurements until a clear distance value can be calculated.
Der Verlauf der Korrelationsfunktion bei einer Verwendung von rechteckförmigen Modulationssignalen ergibt wie gezeigt einen dreieckförmigen Verlauf der Korrelationsfunktion. In
Aktuell werden bei vielen ToF-Kameras, welche nach dem Phasen-ToF Verfahren arbeiten (z.B. PMD-Kameras) Szenerien komplett beleuchtet, d.h. FoV (field of view) ist nahezu identisch mit dem Fol (field of illumination).Currently, with many ToF cameras that work according to the phase ToF method (e.g. PMD cameras), scenes are completely illuminated, i.e. FoV (field of view) is almost identical to the Fol (field of illumination).
Zum Ausgleich von Objektivvignettierung, Messabständen etc. wird desöfteren eine Beleuchtung mit erhöhten Intensitäten am Bildrand benutztTo compensate for lens vignetting, measuring distances, etc., lighting with increased intensities at the edge of the image is often used
Bei der vollständigen Beleuchtung ergeben sich folgende Probleme, welche mittels der neuen Idee vermindert bzw. gelöst werden können:
- - Übersprechen von verschiedenen Bildteilen auf jedes Pixel bedingt durch Streulicht in der Empfangsoptik (Schmutz, Kratzer), Reflexen am Sensor oder an Linsen (Beschichtungen nicht Perfekt bzw. keine 100%ige Absorption im Sensor) etc.; d.h. die Abstandsinformationen eines nahen und eines fernen Objekts überlagert sich und kann sogar dominant werden, z.B. nahes weißes Objekt (oder sogar Retroreflektor) verursacht Streulicht auf Bildbereichen, welche in der Szene weit weg und/oder nur schwach reflektierend sind. Hier kann das Streusignal sogar größer sein, als das eigentliche Messsignal.
- - Übersprechen/Überlagerung von verschiedenen Beleuchtungsanteilen schon in der Szene, d.h. ein Bildpunkt wird in der Szene sowohl direkt von der Beleuchtung der ToF Kamera beleuchtet, als auch indirekt via eines Reflexes (z.B. direkt auf Wand vs. Erst auf Fensterscheibe und dann auf Wand)
- - Übersprechen/Überlagerung von Beleuchtungsanteilen aus der Messszene (rücklaufendes Licht) und direktem Licht aus dem Sender (hinlaufendes Licht), z.B. wenn Senderstrahlung in Empfangsweg hineingekoppelt wird, etwa bei gemeinsam genutztem Fenster für Sende und Empfangsweg. Hier kann Senderlicht in das Fenster eingekoppelt werden (Schmutz, Kratzer etc.) und aus demselben Grund vor dem Objektiv wieder ausgekoppelt werden
- - Begrenzte Messreichweite aufgrund von:
- o limitierter Versorgungs- oder Kühlleistung der Beleuchtung
- o Problemen mit Augen- oder Hautsicherheit, siehe Normen/Gesetze:
- IEC60825-1:2007, IEC60825-1:2014, OStrV-Gesetz, RICHTLINIE 2006/25/EG DES EUROPÄISCHEN PARLAMENTS UND
DES RATES vom 5. April 2006, IEC62471
- IEC60825-1:2007, IEC60825-1:2014, OStrV-Gesetz, RICHTLINIE 2006/25/EG DES EUROPÄISCHEN PARLAMENTS UND
- - Crosstalk from different parts of the image on each pixel caused by stray light in the receiving optics (dirt, scratches), reflections on the sensor or on lenses (coatings not perfect or not 100% absorption in the sensor) etc .; ie the distance information of a near and a distant object is superimposed and can even become dominant, eg a near white object (or even retroreflector) causes scattered light on image areas which are far away in the scene and / or only weakly reflective. Here the scatter signal can even be larger than the actual measurement signal.
- - Crosstalk / superimposition of different lighting components already in the scene, i.e. a pixel in the scene is illuminated both directly by the lighting of the ToF camera and indirectly via a reflex (e.g. directly on the wall vs. first on the window pane and then on the wall)
- - Crosstalk / superimposition of lighting components from the measurement scene (returning light) and direct light from the transmitter (incoming light), e.g. when transmitter radiation is coupled into the receiving path, e.g. when a window is shared for the sending and receiving path. Here, transmitter light can be coupled into the window (dirt, scratches, etc.) and, for the same reason, coupled out again in front of the lens
- - Limited measuring range due to:
- o Limited supply or cooling capacity of the lighting
- o Problems with eye or skin safety, see standards / laws:
- IEC60825-1: 2007, IEC60825-1: 2014, OStrV law, DIRECTIVE 2006/25 / EC OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of April 5, 2006, IEC62471
Beleuchtung mit Punktlichtmuster anstelle homogenem Lichtprofil (Licht jeweils zeitlich moduliert, so dass ToF Messung möglich ist).Illumination with point light patterns instead of a homogeneous light profile (light modulated in time so that ToF measurement is possible).
Erfindungsgemäß wird vorgeschlagen, mittels einem schaltbaren Emitters bzw. einem scannenden Punktlichtmuster die Auflösung eines Lichtlaufzeitkamerasystems zu steigern.According to the invention, it is proposed to increase the resolution of a time-of-flight camera system by means of a switchable emitter or a scanning point light pattern.
Kerngedanke der Erfindung ist: die „Schärfe“ bzw. Bildpunktanzahl nicht durch den Sensor oder die Empfangsoptik selbst vorzugeben, sondern durch die Beleuchtung in Form von Lichtpunktarrays. Zudem kann die genaue Ausrichtung eines jeden Lichtpunktes durch Auswertung der Signalintensität auf benachbarten Pixeln (Subpixelabtastung) ermittelt werden.The core idea of the invention is: the "sharpness" or the number of pixels is not specified by the sensor or the receiving optics themselves, but by the lighting in the form of light point arrays. In addition, the exact alignment of each light point can be determined by evaluating the signal intensity on neighboring pixels (subpixel scanning).
Dabei kann man entweder Sender mit mehr Lichtpunkten als Empfängerpixelzahl verwenden, oder aber Sender mit weniger Lichtpunkten als Empfängerpixelanzahl - dafür aber mit einer Scannereinheit - verwenden.You can either use transmitters with more points of light as the number of receiver pixels, or transmitters with fewer points of light as the number of receiver pixels - but with a scanner unit.
Bei Sendern mit mehr Lichtpunkten als die Empfängerpixelanzahl ist erreicht man die Auflösungserhöhung, in dem die Lichtpunkte in Gruppen schaltbar sind, z.B. nur jeder n-te Emitter pro Zeile und jede n-te Spalte leuchtet. Durch sequentielles Aufnehmen, indem die einzelnen Gruppen nacheinander eingeschaltet werden, kann das finale Bild zusammengesetzt werden.For transmitters with more light points than the number of receiver pixels, the increase in resolution is achieved by switching the light points in groups, e.g. only every nth emitter per row and every nth column lights up. The final image can be put together by sequential recording by switching on the individual groups one after the other.
Bei Sendern mit weniger Lichtpunkten als der Empfängerpixelanzahl, dafür aber mit Scanner/Optik, so dass das Punktemuster ausgerichtet werden kann, kann das finale Bild wieder mittels sequentieller Aufnahmen, indem jeweils pro Scanner/Optikstellung eine Aufnahme erfolgt, das finale Bild zusammengesetzt werden.In the case of transmitters with fewer light points than the number of receiver pixels, but with a scanner / optics so that the point pattern can be aligned, the final image can again be put together by means of sequential recordings, in which one record is made for each scanner / lens position.
Zahl der effektiven Messpunkte = Zahl der Senderpunkte x Zahl der Scannerstellungen.Number of effective measuring points = number of transmitter points x number of scanner positions.
Ferner Streifen- oder Musterbeleuchtung (z.B. gepunktete Beleuchtungslinie), welche in nur 1 Richtung bewegt wird; dann kann man via Subpixelauflösungsauswertung in einer Richtung die Auflösung steigern; Vorzugsweise wird das Muster senkrecht zur Ausrichtung des Lichtstreifens/Lichtpunktmuster bewegt.Furthermore, strip or pattern lighting (e.g. dotted lighting line), which is moved in only 1 direction; then one can increase the resolution in one direction via subpixel resolution evaluation; The pattern is preferably moved perpendicular to the alignment of the light strip / light point pattern.
Das Lichtpunktmuster kann auch aus einer oder mehreren Quellen und zusätzlichen Optiken erzeugt werden, wie etwa holographisch optischen Elementen (HOE), diffraktiven optischen Elementen (DOE), „engineered“ Diffusem, Spiegelarrays, Mikrospiegelarrays (DMD) etc.The light point pattern can also be generated from one or more sources and additional optics, such as holographic optical elements (HOE), diffractive optical elements (DOE), "engineered" diffusers, mirror arrays, micromirror arrays (DMD), etc.
Folgende Ausgestaltungen sind denkbar:
- Ein ToF-Kamerasystem mit einer Beleuchtung aus vielen modulierten Einzelemittern, wobei die Emitter einzeln oder in Gruppen eingeschaltet werden können, , wobei die einzelnen Emitter monolithisch (z.B. VCSEL-Array) oder aus diskreten Einzelemittern oder aus einer Anordnung von Emitterarrays zusammengesetzt sind.
- A ToF camera system with lighting consisting of many modulated individual emitters, whereby the emitters can be switched on individually or in groups, whereby the individual emitters are monolithic (e.g. VCSEL array) or composed of discrete individual emitters or an arrangement of emitter arrays.
Ferner wird die genaue Ausrichtung der Emissionsrichtung der Einzelemitter anhand der Signalintensitäten benachbarter Pixel ermittelt.Furthermore, the exact alignment of the emission direction of the individual emitters is determined on the basis of the signal intensities of neighboring pixels.
Weiterhin ist es vorgesehen, dass die Gesamtzahl der Einzelemitter größer ist als die Anzahl der Empfängerpixel.It is also provided that the total number of individual emitters is greater than the number of receiver pixels.
Bevorzugt ist es vorgesehen, dass die Gesamtzahl der Einzelemitter geringer ist als die Anzahl der Empfängerpixel (bis hinunter zu einem Emitter) und eine Einheit zur Ausrichtung der Lichtpunkte (Scanner) zum Einsatz kommt.It is preferably provided that the total number of individual emitters is less than the number of receiver pixels (down to one emitter) and a unit for aligning the light points (scanner) is used.
Ferner sind sind jeweils nur ein Teil der Emitter eingeschaltetFurthermore, only some of the emitters are switched on
Weiterhin kann das finale Bild aus mehreren Einzelaufnahmen aufgebaubt sein - bei welchen jeweils andere Emitter eingeschaltet werden und/oder aber die Lichtpunktausrichtung mittels einer Einheit (Scanner) neu ausgerichtet wird - zusammengesetzt wird.Furthermore, the final image can be built up from several individual images - in each of which other emitters are switched on and / or the light point alignment is realigned by means of a unit (scanner) - is put together.
Ferner lässt sich die Ausrichtung der Einzellichtpunkte aufgrund eines Intensitätsvergleiches benachbarter Empfängerpixel bestimmen.Furthermore, the alignment of the individual light points can be determined on the basis of an intensity comparison of neighboring receiver pixels.
Weiterhin ist es vorgesehen, dass das Lichtpunktmuster mittels eines oder mehrerer Emitter, sowie Zusatzoptiken erzeugt wird, welche die Zahl der Lichtpunkte erhöht.Furthermore, it is provided that the light point pattern is generated by means of one or more emitters, as well as additional optics, which increase the number of light points.
Rechts: Beleuchtungsmuster in der Szene, wenn nur die Gruppe der Emitter mit „1“ eingeschaltet wirdRight: lighting pattern in the scene if only the group of emitters is switched on with "1"
Links unten: Lage der abgebildeten Lichtpunkte auf einem Detektor mit 7x4 Pixeln; wenn die Größe der abgebildeten Lichtpunkte (inkl. Unschärfe des Objektivs) größer als der Pixelpitch ist, so kann man über einen Intensitätsvergleich die Lage der Lichtpunkte in der Szene mittels Subpixelauflösung bestimmen. Obwohl der Empfängerchip nur 7x4 Pixel hat kann man durch sequentielle Aufnahme dennoch eine Auflösung von 9x6 erreichen.Bottom left: Position of the light points shown on a detector with 7x4 pixels; If the size of the depicted points of light (including the blurring of the lens) is larger than the pixel pitch, the position of the points of light in the scene can be determined by means of an intensity comparison using subpixel resolution. Although the receiver chip only has 7x4 pixels, a resolution of 9x6 can still be achieved through sequential recording.
BezugszeichenlisteList of reference symbols
- 11
- LichtlaufzeitkamerasystemTime-of-flight camera system
- 1010
- BeleuchtungsmodulLighting module
- 1212th
- Beleuchtunglighting
- 2020th
- Empfänger, LichtlaufzeitkameraReceiver, time-of-flight camera
- 2222nd
- LichtlaufzeitsensorTime of flight sensor
- 2727
- AuswerteeinheitEvaluation unit
- 3030th
- Modulatormodulator
- 3535
- Phasenschieber, BeleuchtungsphasenschieberPhase shifter, lighting phase shifter
- 3838
- ModulationssteuergerätModulation controller
- 4040
- Objektobject
- 400400
- AuswerteeinheitEvaluation unit
- φ, Δφ(tL)φ, Δφ (t L )
- laufzeitbedingte Phasenverschiebungphase shift due to runtime
- φvar φ var
- PhasenlagePhasing
- φ0 φ 0
- BasisphaseBase phase
- MoMon
- ModulationssignalModulation signal
- p1p1
- erste Phasefirst phase
- p2p2
- zweite Phasesecond phase
- Sp1Sp1
- Sendesignal mit erster PhaseTransmission signal with first phase
- Sp2Sp2
- Empfangssignal mit zweiter PhaseReceived signal with second phase
- Ga, GbGa, Gb
- IntegrationsknotenIntegration node
- Ua, ÜbUa, ex
- Spannungen an den IntegrationsknotenTensions at the integration nodes
- ΔUΔU
- SpannungsdifferenzVoltage difference
- ΔqΔq
- LadungsdifferenzCharge difference
- dd
- ObjektdistanzObject distance
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- DE 19704496 A1 [0002, 0003, 0009]DE 19704496 A1 [0002, 0003, 0009]
- DE 19704496 C2 [0017]DE 19704496 C2 [0017]
- DE 102004016626 A1 [0020]DE 102004016626 A1 [0020]
- DE 102005056774 A1 [0020]DE 102005056774 A1 [0020]
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019124141.3A DE102019124141A1 (en) | 2019-09-09 | 2019-09-09 | Time-of-flight camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019124141.3A DE102019124141A1 (en) | 2019-09-09 | 2019-09-09 | Time-of-flight camera system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019124141A1 true DE102019124141A1 (en) | 2021-03-11 |
Family
ID=74644753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019124141.3A Withdrawn DE102019124141A1 (en) | 2019-09-09 | 2019-09-09 | Time-of-flight camera system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019124141A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016124594A1 (en) * | 2016-12-16 | 2018-06-21 | Jena-Optronik Gmbh | Method for detecting a 3D scene using a LIDAR system and LIDAR system for this purpose |
US20190094346A1 (en) * | 2017-09-25 | 2019-03-28 | Hexagon Technology Center Gmbh | Multi-beam laser scanner |
-
2019
- 2019-09-09 DE DE102019124141.3A patent/DE102019124141A1/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016124594A1 (en) * | 2016-12-16 | 2018-06-21 | Jena-Optronik Gmbh | Method for detecting a 3D scene using a LIDAR system and LIDAR system for this purpose |
US20190094346A1 (en) * | 2017-09-25 | 2019-03-28 | Hexagon Technology Center Gmbh | Multi-beam laser scanner |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018185083A2 (en) | Time-of-flight camera | |
EP2019973A1 (en) | Distance measuring method and distance measuring element for detecting the spatial dimension of a target | |
DE102012204512A1 (en) | Time-of-flight sensor for use in three-dimensional time-of-flight camera system for multi-phase measurement of modulated light, has two time-of-flight pixel regions operating sensor with different phase measuring modes | |
DE102016201599A1 (en) | Time of flight camera system | |
DE102016213217A1 (en) | Time of flight camera system | |
DE102019123449A1 (en) | Time-of-flight camera system with a high dynamic range | |
DE102014207163A1 (en) | Time of flight camera system | |
DE102013207654B4 (en) | Time-of-flight camera system | |
DE102020123537B4 (en) | Time of flight camera system | |
DE102015225192A1 (en) | Light transit time measuring system with overreach detection | |
DE102013203088A1 (en) | Light running time camera system has lighting elements which are operated with different phases, and integration time varies in length for various phase positions, while integration time lasts longer than modulation time of illumination | |
DE102014205585B4 (en) | Method for operating a time of flight camera and time of flight camera system | |
DE102013207648B4 (en) | Time-of-flight camera system | |
DE102019124141A1 (en) | Time-of-flight camera system | |
DE102017203090A1 (en) | Time of flight camera system | |
DE102016219170A1 (en) | Time of flight camera system | |
WO2022122891A1 (en) | Distance measurement system | |
DE102020123541A1 (en) | Distance measuring system | |
DE102016219518A1 (en) | Time of flight camera system | |
DE102019124144A1 (en) | Distance measuring system | |
DE102016219515A1 (en) | Time of flight camera system | |
DE102019124138A1 (en) | Time-of-flight distance measurement system | |
DE102017200879B4 (en) | Time-of-flight camera and method for operating one | |
DE102016222334B4 (en) | Method for determining system parameters of a time-of-flight camera system | |
DE102019124142A1 (en) | Time-of-flight camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |