DE102021128537A1 - Time-of-flight camera and method for operating one - Google Patents

Time-of-flight camera and method for operating one Download PDF

Info

Publication number
DE102021128537A1
DE102021128537A1 DE102021128537.2A DE102021128537A DE102021128537A1 DE 102021128537 A1 DE102021128537 A1 DE 102021128537A1 DE 102021128537 A DE102021128537 A DE 102021128537A DE 102021128537 A1 DE102021128537 A1 DE 102021128537A1
Authority
DE
Germany
Prior art keywords
time
machine learning
raw data
flight
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021128537.2A
Other languages
German (de)
Inventor
Christopher Dietz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IFM Electronic GmbH
PMDtechnologies AG
Original Assignee
IFM Electronic GmbH
PMDtechnologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IFM Electronic GmbH, PMDtechnologies AG filed Critical IFM Electronic GmbH
Publication of DE102021128537A1 publication Critical patent/DE102021128537A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zum Betreiben einer Lichtlaufzeitkamera, die einen Lichtlaufzeitsensor mit Lichtlaufzeitpixel umfasst, mit den Schritten:- Erfassung von Rohdaten mit Hilfe des Lichtlaufzeitsensors,- Korrektur der Rohdaten,indem die Rohdaten des Lichtlaufzeitsensors einem hinsichtlich Mehrwegausbreitung trainierten Modell maschinellen Lernens zugeführt werden und eine Inferenz des Modells maschinellen Lernens zur Korrektur der Rohdaten verwendet wird,wobei das Modell maschinellen Lernens mit experimentellen mehrwegfehlerbehafteten Trainingsdatenpaare trainiert wurde,- Bereitstellung der korrigierten Rohdaten für eine nachfolgende Ermittlung von Entfernungswerten.Method for operating a time-of-flight camera that includes a time-of-flight sensor with time-of-flight pixels, with the steps: - Acquisition of raw data using the time-of-flight sensor, - Correction of the raw data by the raw data of the time-of-flight sensor being fed to a machine learning model trained with regard to multipath propagation and an inference of the model machine learning is used to correct the raw data, the machine learning model having been trained with experimental multipath error-prone training data pairs,- providing the corrected raw data for a subsequent determination of distance values.

Description

Die Erfindung betrifft eine Lichtlaufzeitkamera und ein Verfahren zum Betreiben einer solchen, eine Verwendung und einen Messaufbau gemäß Gattung der unabhängigen Ansprüche.The invention relates to a time-of-flight camera and a method for operating such a camera, a use and a measurement setup according to the species of the independent claims.

Lichtlaufzeitkameras bzw. Lichtlaufzeitkamerasysteme betreffen insbesondere alle Lichtlaufzeit bzw. TOF-Kamerasysteme, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als Lichtlaufzeit bzw. TOF-Kameras sind insbesondere PMD-Kameras mit Photomischdetektoren (PMD) geeignet, wie sie beispielsweise in der DE 197 04 496 C2 beschrieben sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.Time-of-flight cameras or time-of-flight camera systems relate in particular to all time-of-flight or TOF camera systems that obtain transit-time information from the phase shift of an emitted and received radiation. PMD cameras with photomixing detectors (PMD) are particularly suitable as time-of-flight or TOF cameras, as they are used, for example, in DE 197 04 496 C2 are described. In particular, the PMD camera allows a flexible arrangement of the light source and the detector, which can be arranged either in one housing or separately.

Aus der US 2017 / 0 262 768 A1 ist eine Vorrichtung zur Entfernungsbestimmung bekannt, bei der Entfernungen mithilfe eines Modells maschinellen Lernens ermittelt werden. Dieses Modell wurde mit wenigstens einem simulierten Rohdatenpaar trainiert. Das Modell ist so trainiert, dass es in einem einzigen Schritt ausgehend von den gespeicherten Rohdaten des Lichtlaufzeitsensor Entfernungswerte bestimmt, wobei das Modell maschinellen Lernens mithilfe simulierter Rohdaten, die simulierte Mehrwegausbreitungen beinhalten, trainiert wurde.A device for determining distances is known from US 2017/0 262 768 A1, in which distances are determined using a machine learning model. This model was trained with at least one pair of simulated raw data. The model is trained to determine distance values in a single step from the stored raw time-of-flight sensor data, with the machine learning model being trained using simulated raw data containing simulated multipath propagations.

Die EP 3 832 351 A1 beschreibt eine Vorrichtung und ein Verfahren für das Training eines Modells maschinellen Lernens für eine Lichtlaufzeitkamera. Das Modell wird trainiert mit simulierten Daten basierend auf einer synthetischen Szenerie und einer simulierten Rückantwort eines emittierten TOF-Signals.the EP 3 832 351 A1 describes an apparatus and method for training a machine learning model for a time-of-flight camera. The model is trained with simulated data based on a synthetic scene and a simulated response of an emitted TOF signal.

Aufgabe der Erfindung ist es, die Genauigkeit einer Lichtlaufzeitkamera zu verbessern.The object of the invention is to improve the accuracy of a time-of-flight camera.

Die Aufgabe wird durch das erfindungsgemäße Verfahren gelöst.The object is achieved by the method according to the invention.

Vorteilhaft ist ein Verfahren zum Betreiben einer Lichtlaufzeitkamera, die einen Lichtlaufzeitsensor mit Lichtlaufzeitpixel umfasst, vorgesehen, mit den Schritten:

  • - Erfassung von Rohdaten mit Hilfe des Lichtlaufzeitsensors,
  • - Korrektur der Rohdaten,

indem die Rohdaten des Lichtlaufzeitsensors einem hinsichtlich Mehrwegausbreitung trainierten Modell maschinellen Lernens zugeführt werden und eine Inferenz des Modells maschinellen Lernens zur Korrektur der Rohdaten verwendet wird,
wobei das Modell maschinellen Lernens mit experimentellen
mehrwegfehlerbehafteten Trainingsdatenpaare trainiert wurde,
  • - Bereitstellung der korrigierten Rohdaten für eine nachfolgende Ermittlung von Entfernungswerten.
A method for operating a time-of-flight camera that includes a time-of-flight sensor with time-of-flight pixels is advantageously provided, with the steps:
  • - Acquisition of raw data using the time-of-flight sensor,
  • - correction of the raw data,

by feeding the raw data of the time-of-flight sensor to a machine learning model trained with regard to multipath propagation and using an inference of the machine learning model to correct the raw data,
where the machine learning model with experimental
was trained with multipath error-prone training data pairs,
  • - Provision of the corrected raw data for a subsequent determination of distance values.

Dieses Vorgehen hat den Vorteil, dass vor einer Weiterleitung der Rohdaten die Rohdaten im Hinblick auf Artefakte, die durch eine Mehrwegausbreitung auftreten, verbessert werden können. Den nachfolgenden Prozessschritten stehen dann korrigierte Rohdaten zur Verfügung, ohne dass die nachfolgenden Prozessschritte zusätzlich angepasst werden müssen.This procedure has the advantage that, before the raw data is forwarded, the raw data can be improved with regard to artefacts that occur as a result of multipath propagation. Corrected raw data is then available for the subsequent process steps without the subsequent process steps having to be additionally adjusted.

Bevorzugt erfolgt eine nachfolgende Ermittlung von Entfernungswerten ohne Verwendung eines Modells maschinellen Lernens ausgehend von den korrigierten Rohdaten erfolgt.A subsequent determination of distance values preferably takes place without using a machine learning model, starting from the corrected raw data.

Dieses Vorgehen hat den Vorteil, dass das Modell maschinellen Lernens nur für die Ermittlung und Kompensation von Mehrwegsausbreitungen herangezogen wird, während die Berechnung der Entfernung beispielsweise nach typischen und bekannten Algorithmen erfolgt.This procedure has the advantage that the machine learning model is only used to determine and compensate for multipath propagations, while the distance is calculated, for example, using typical and known algorithms.

Ferner ist es nützlich das Modell maschinellen Lernens als neuronales Faltungsnetz ausgebildet.Furthermore, the machine learning model designed as a convolutional neural network is useful.

Weiterhin ist es von Vorteil, eine Lichtlaufzeitkamera zur Durchführung eines der vorgenannten Verfahren auszubilden.Furthermore, it is advantageous to construct a time-of-flight camera for carrying out one of the aforementioned methods.

Besonders nützlich ist es, das Modell maschinellen Lernens, das nach einem der der vorgenannten Verfahren trainiert wurde, als Kostenfunktion für das Training weiterer Modelle maschinellen Lernens heranzuziehen.It is particularly useful to use the machine learning model that was trained using any of the above methods as a cost function for training other machine learning models.

Hilfreich ist zudem ein Messaufbau, mit dem Trainingsdaten für die Verwendung in der Lichtlaufzeitkamera experimentell ermittelt werden.A measurement setup with which training data for use in the time-of-flight camera can be experimentally determined is also helpful.

Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.The invention is explained in more detail below using exemplary embodiments with reference to the drawings.

Es zeigen schematisch:

  • 1 einen Aufbau zur Erfassung und Einlernen valider Rohdaten,
  • 2 eine erfindungsgemäße Datenerfassung und -aufbereitung
  • 3 ein Training eines Modells maschinellen Lernens,
  • 4 eine Verwendung des Modells maschinellen Lernens bei der Mehrwegfehlerabschätzung.
They show schematically:
  • 1 a structure for recording and teaching valid raw data,
  • 2 an inventive data acquisition and processing
  • 3 a training of a machine learning model,
  • 4 a use of the machine learning model in multipath error estimation.

1 zeigt schematisch einen erfindungsgemäßen Aufbau mit einem 3D-Laserscanner auf einem Stativ und mit mindestens einer auf dem Scanner montierten Lichtlaufzeitkamera. 1 shows schematically a structure according to the invention with a 3D laser scanner on a tripod and with at least one time-of-flight camera mounted on the scanner.

Die verwendete Lichtlaufzeitkamera misst phasenverschobene periodische Funktionen, wobei die Phase proportional zur Tiefe d ist. Es ist üblich, diese Messungen als Real- (Re) und Imaginärteil (Im) eines komplexen Sinussignals (hier als Rohdaten bezeichnet) zu gestalten. Die Phase wird definiert als: ϕ= atan 2 ( Re ,Im )

Figure DE102021128537A1_0001
The time-of-flight camera used measures phase-shifted periodic functions, where the phase is proportional to the depth d. It is common to construct these measurements as the real (Re) and imaginary (Im) parts of a complex sine wave (referred to herein as raw data). The phase is defined as: ϕ= atan 2 ( re ,In the )
Figure DE102021128537A1_0001

Die Tiefe wird dann berechnet als: d = ur / 2 π ϕ

Figure DE102021128537A1_0002
The depth is then calculated as: i.e = ur / 2 π ϕ
Figure DE102021128537A1_0002

Der eindeutige Bereich (ur) einer ToF-Kamera ist durch die Verwendung ihrer Modulationsfrequenz (f) begrenzt. ur = c / 2f

Figure DE102021128537A1_0003

Mit c = Lichtgeschwindigkeit.The unique range (ur) of a ToF camera is limited by the use of its modulation frequency (f). ur = c / 2f
Figure DE102021128537A1_0003

With c = speed of light.

Die Tiefenmessung leidet unter mehreren Fehlern. Insbesondere Rauschen, Mehrweginterferenzen und so genannte, phase unwrapping'' (Phasenzuordnungs) - Fehler müssen berücksichtigt werden.

  1. a) Das Rauschen wird in der Regel mit räumlichen, kernelbasierten (adaptiven-) Filterverfahren reduziert. Auch eine zeitliche Filterung wird verwendet.
  2. b) Mehrwege-Interferenz entsteht durch Mehrfachreflexionen in der Szene, bevor das Licht zur Kamera zurückkehrt. Dies führt zu überbestimmten Tiefenwerten und ist stark szenenabhängig. Derzeit ist kein klassischer Algorithmus in der Lage, diesen Fehler in Echtzeit zu korrigieren.
  3. c) Die Fehler durch die Phasenzuordnung (phase unwrapping) werden typischerweise mit dem chinesischen Restwert Theorem und mehreren Frequenzen gelöst. Fehler in der Zuordnung zu einem der möglichen Eindeutigkeitsbereichen können insbesondere durch Rauschen entstehen. Der maximale Bereich der Messung ist zudem noch durch das kleinste gemeinsame Vielfache der eindeutigen Bereiche der verwendeten Modulationsfrequenzen begrenzt.
The depth measurement suffers from several errors. In particular, noise, multipath interference and so-called "phase unwrapping" (phase assignment) errors must be taken into account.
  1. a) The noise is usually reduced with spatial, kernel-based (adaptive) filtering methods. Temporal filtering is also used.
  2. b) Multipath interference is caused by multiple reflections in the scene before the light returns to the camera. This leads to overdetermined depth values and is highly scene-dependent. No classic algorithm is currently able to correct this error in real time.
  3. c) The phase unwrapping errors are typically solved using the Chinese remainder theorem and multiple frequencies. Errors in the assignment to one of the possible unambiguous areas can arise in particular from noise. The maximum range of the measurement is also limited by the smallest common multiple of the unambiguous ranges of the modulation frequencies used.

Modelle des maschinellen Lernens sind in der Lage, mit diesen Problemen umzugehen, benötigen jedoch große Mengen an Trainingsdaten mit bekannten fehlerfreien Tiefendaten. Im Gegensatz zu oft verwendeten synthetischen Trainingsdaten haben experimentelle Trainingsdaten keine sogenannte Domänenlücke zwischen den Daten die ein Modell maschinellen Lernens im Training sieht und den Daten die eine echte Lichtlaufzeitkamera zur Inferenz misst. Daher ist die Genauigkeit des Modells maschinellen Lernens beim Training mit experimentellen Daten erheblich höher als bei der Verwendung synthetischer Daten.Machine learning models are able to deal with these problems but require large amounts of training data with known sound depth data. In contrast to synthetic training data that is often used, experimental training data does not have a so-called domain gap between the data that a machine learning model sees in training and the data that a real time-of-flight camera measures for inference. Therefore, the accuracy of the machine learning model when trained on experimental data is significantly higher than when using synthetic data.

Wie eingangs beschrieben und in 1 gezeigt, besteht die Datenerfassung bzw. der Messaufbau aus einem Laserscanner, der beispielsweise auf einem motorisierten Stativ angeordnet ist. Zusätzlich ist mindestens eine Lichtlaufzeitkamera auf dem Scanner montiert, (optional mit rotierendem Schrittmotor). Die Daten können beispielsweise über einen Computer, der beispielsweise über Wifi mit dem Laserscanner und USB mit der/den Lichtlaufzeitkameras und ggf. Schrittmotoren verbunden ist. Der PC dient vorzugsweise zur Koordination des automatischen Laserscannens und der Lichtlaufzeit-Bilderfassung.As described above and in 1 shown, the data acquisition or the measurement setup consists of a laser scanner, which is arranged, for example, on a motorized tripod. In addition, at least one time-of-flight camera is mounted on the scanner (optionally with a rotating stepper motor). The data can, for example, be sent via a computer that is connected to the laser scanner and USB to the time-of-flight camera(s) and stepper motors, for example, via Wifi. The PC is preferably used to coordinate the automatic laser scanning and the time-of-flight image acquisition.

Dieser Laserscanner ist hier ein Referenzmesssystem und wird verwendet, um aus der Scan-Punktewolke ein Referenzrohdatum zu gewinnen. Aufgrund der punktförmigen Abtastung des Scanners ist dieses Messverfahren typischerweise nicht von Mehrwegausbreitungen betroffen und liefert somit ein im Wesentlichen fehlerfreies Tiefenbild. Ebenso existieren keine Phasenzuordnungsfehler und das Rauschen ist sehr gering. Die Lichtlaufzeitkamera hingegen ist (neben anderen Messfehlern) aufgrund der flächigen Beleuchtung der Szene insbesondere anfällig für Mehrwegausbreitungen. Ziel des Vorgehens ist es unter anderem, solche Effekte zu trainieren und die gelernten Daten in einem neuronalen Netz bzw. Modell maschinellen Lernens (machine learning model) zur Verfügung zu stellen.This laser scanner is a reference measurement system here and is used to obtain a raw reference data item from the scan point cloud. Due to the punctiform sampling of the scanner, this measurement method is typically not affected by multipath propagations and thus provides an essentially error-free depth image. Likewise, there are no phase assignment errors and the noise is very low. The time-of-flight camera, on the other hand, is particularly susceptible to multipath propagation (besides other measurement errors) due to the planar illumination of the scene. The aim of the procedure is, among other things, to train such effects and to make the learned data available in a neural network or machine learning model.

Wie in 2 gezeigt, werden die Ergebnisse des Scans und ein Lichtlaufzeitrohdatum registriert und mit Bildverarbeitungsalgorithmen verarbeitet. So wird eine Datenbank mit Trainingsdatenpaaren bestehend aus fehlerfreien Rohdaten vom Laserscanner und fehlerbehafteten Rohdaten von der Lichtlaufzeitkamera erstellt. Da der Laserscanner keine Rohdaten misst, sondern direkt eine Punktewolke bestimmt wird in 2 Schritten aus der Punktewolke ein Lichtlaufzeitrohdatum bestimmt:

  1. 1. Eine extrinsische Kalibration der Lichtlaufzeitkamera mit dem Laserscanner liefert eine fehlerfreie Punktewolke aus der Perspektive der Lichtlaufzeitkamera (gemessen vom Laserscanner) und ein Rohdatum aus der Messung der Lichtlaufzeitkamera.
  2. 2. Die resultierende fehlerfreie Punktwolke wird durch Rasterung in ein Tiefenbild gewandelt und mit folgender Formel in Lichtlaufzeitrohdaten berechnet: r e d = A d sin ( 2 π d d u r )
    Figure DE102021128537A1_0004
    i m d = A d cos ( 2 π d d u r )
    Figure DE102021128537A1_0005
As in 2 shown, the results of the scan and a raw time-of-flight datum are registered and processed with image processing algorithms. A database with training data pairs consisting of error-free raw data from the laser scanner and error-prone raw data from the time-of-flight camera is created. Since the laser scanner does not measure raw data, but directly determines a point cloud, a raw time-of-flight datum is determined from the point cloud in 2 steps:
  1. 1. An extrinsic calibration of the time-of-flight camera with the laser scanner provides an error-free point cloud from the perspective of the time-of-flight camera (measured by the laser scan ner) and a raw data from the measurement of the time-of-flight camera.
  2. 2. The resulting error-free point cloud is converted into a depth image by rasterization and calculated in raw light time data with the following formula: right e i.e = A i.e sin ( 2 π i.e i.e and right )
    Figure DE102021128537A1_0004
    i m i.e = A i.e cos ( 2 π i.e i.e and right )
    Figure DE102021128537A1_0005

Die fehlerfreien Rohdaten werden hier als Real- und Imaginärteil (red und imd) definiert. Die dazu passenden (fehlerbehafteten) Rohdaten der Lichtlaufzeitkamera werden als re und im bezeichnet und bilden somit das Trainingsdatenpaar.The error-free raw data is defined here as a real and imaginary part (red and imd). The matching (erroneous) raw data from the time-of-flight camera are referred to as re and im and thus form the training data pair.

Die Trainingsdatenpaare werden dann zum Training eines maschinellen Lernmodells verwendet. Dieses Modell erhält Rohdaten als Eingabe und gibt korrigierte Rohdaten aus.The training data pairs are then used to train a machine learning model. This model takes raw data as input and outputs corrected raw data.

Grundgedanke der Datengenerierung ist, dem System eine möglichst große Anzahl unterschiedlicher Szenerien mit unterschiedlichen Problemstellungen in der Szenenvermessung anzubieten. So können einige Szenarien beispielsweise Ecken und Kanten aufweisen, die eine Mehrwegausbreitung begünstigen.The basic idea of the data generation is to offer the system the largest possible number of different scenarios with different problems in the scene measurement. For example, some scenarios may have corners and edges that favor multipath propagation.

Die anhand von vorzugsweise einigen Tausend erfassten unterschiedlichen Szenarien gewonnenen Trainingsdatenpaare werden in einer Datenbank abgelegt. The pairs of training data obtained from preferably a few thousand different scenarios are stored in a database.

Diese Datenbank ist für den jeweiligen Lichtlaufzeitkameratyp universell verwendbar und kann zum Training eines Modells masch. Lernens zur Rohdatenverbesserung herangezogen werden.This database can be used universally for the respective time-of-flight camera type and can be used to train a model. learning to improve raw data.

Ein wesentlicher Nachteil von experimentellen Trainingsdaten ist der hohe Zeitaufwand, um eine angemessene Menge an Trainingsdatenpaaren zu generieren. Unter diesem Aspekt ist die Datenvermehrung besonders wichtig: Dies bedeutet, dass die Menge der Trainingsdatenpaare pro Scan so groß wie möglich sein sollte. Bevorzugt sollten mehre Zehntausend Trainingsdatenpaare erstellt werden. Daher sollte jeder Scan >=10 Datenpaare liefern, um mit vertretbarem Zeitaufwand eine umfangreiche Datenbank für das Training aufzubauen. Mehrere Methoden sind geeignet, um dies zu erreichen:

  1. a) Montage der Lichtlaufzeitkamera auf einem Motor pro Rotationsachse. Eine Software ändert dann automatisch die Blickwinkel der Kamera durch Drehen der Motoren und nimmt so mehrere einzigartige Bilder pro Scan auf.
  2. b) Verwendung von mehreren Lichtlaufzeitkameras in verschiedenen Positionen und Winkeln, die auf dem Laserscanner montiert sind. Dies hat den zusätzlichen Vorteil, dass verschiedene Kameras mit unterschiedlichen Kalibrierfehlern verwendet werden können. Dadurch wird die statistische Wirksamkeit der Informationserweiterung (augmentation) erhöht.
  3. c) Aufnahme der Lichtlaufzeitbilder bei verschiedenen Belichtungszeiten, um verschiedene Signal-Rausch-Verhältnisse darzustellen (z.B. 5 verschiedene Stufen).
A major disadvantage of experimental training data is the high time required to generate a reasonable set of training data pairs. From this point of view, data proliferation is particularly important: This means that the amount of training data pairs per scan should be as large as possible. Preferably, several tens of thousands of training data pairs should be created. Therefore, each scan should deliver >=10 data pairs in order to build up a comprehensive database for training with a reasonable amount of time. Several methods are suitable to achieve this:
  1. a) Mounting the time-of-flight camera on one motor per axis of rotation. Software then automatically changes the camera's viewing angles by rotating the motors, capturing multiple unique images per scan.
  2. b) Use of multiple time-of-flight cameras in different positions and angles mounted on the laser scanner. This has the additional advantage that different cameras with different calibration errors can be used. This increases the statistical effectiveness of the information augmentation.
  3. c) Recording of the time-of-flight images at different exposure times to show different signal-to-noise ratios (eg 5 different levels).

Alle Methoden können kombiniert werden, um die bestmögliche Datenverstärkung zu erreichen. Für einen Laserscanner mit einem Sichtfeld (fov) von 300°x360° und eine Lichtlaufzeitkamera mit 45° x 60° fov können wir -36 eindeutige Blickpunkte abrufen. Bei 5 Belichtungszeiten erhalten wir 5x36=180 Trainingsmuster pro Scan, so dass bei 100 Messvorgängen eine Datenbank von 100x180 = 18k Trainingspaaren entsteht.All methods can be combined to achieve the best possible data amplification. For a laser scanner with a field of view (fov) of 300°x360° and a time-of-flight camera with a 45°x60° fov, we can get -36 unique viewpoints. With 5 exposure times we get 5x36=180 training patterns per scan, so that with 100 measurement processes a database of 100x180 = 18k training pairs is created.

Wie in 2 gezeigt, erhält das Modell des maschinellen Lernens Trainingspaare aus der Datenbank. Das Training an experimentellen Daten ist ein entscheidender Teil der Erfindung. Diese Methode führt zu einer besseren Verallgemeinerung des maschinellen Lernmodells, da keine Annäherungen oder Annahmen (z.B. nur Lambertsche Streuung, reines Gaußsches Rauschen) gemacht werden müssen, um synthetische ToF-Bilder zu berechnen. Daher führt das Training an experimentellen Daten zu deutlich besser trainierten Modellen als mit synthetischen Daten (unabhängig von der konkreten Modellarchitektur).As in 2 shown, the machine learning model obtains training pairs from the database. Training on experimental data is a crucial part of the invention. This method leads to a better generalization of the machine learning model since no approximations or assumptions (e.g. only Lambertian scattering, pure Gaussian noise) have to be made to calculate synthetic ToF images. Therefore, training on experimental data leads to significantly better trained models than on synthetic data (regardless of the specific model architecture).

Eine Lichtlaufzeitkamera misst auf jedem Pixel die Entfernung von Kamera zum Objekt in einer Szene. Jedoch wird die Messung durch mehrere Reflektionen in der Szene verfälscht. Dieser Fehler heißt Mehrwegeinterferenzfehler (MPI-Fehler). Daher wird in der Erfindung ein Modell maschinellen Lernens trainiert, um den MPI-Fehler in der Messung der Lichtlaufzeitkamera abzuschätzen. Potenzielle Anwendungen sind: Ausblenden der fehlerbehafteten Pixel (Flagging), Korrektur der fehlerbehafteten Pixel oder Einsatz dieses Modells als Kostenfunktion in anderen Trainingsroutinen.A time-of-flight camera measures the distance from the camera to the object in a scene on each pixel. However, the measurement is falsified by several reflections in the scene. This error is called multipath interference error (MPI error). Therefore, in the invention, a machine learning model is trained to estimate the MPI error in the time-of-flight camera measurement. Potential applications are: flagging the defective pixels, correcting the defective pixels, or using this model as a cost function in other training routines.

Mehrwegeinterferenzfehler werden durch mehrfache Reflektionen in der Szene hervorgerufen. Dadurch ist der Lichtpfad länger als der direkte Weg und erhöht somit die Distanz auf dem Pixel. Weiterhin ist dieser Fehler in höchstem Maß szenenabhängig, da er von der Geometrie in der Szene abhängt. Die Anteile von konstruktiver und destruktiver Interferenz der indirekten Pfade hängen wesentlich von der Modulationsfrequenz ab, was zu einer starken Frequenzabhängigkeit dieses Fehlers führt.Multipath interference errors are caused by multiple reflections in the scene. As a result, the light path is longer than the direct path and thus increases the distance on the pixel. Furthermore, this error is highly scene dependent since it depends on the geometry in the scene. The proportions of constructive and destructive inter ference of the indirect paths depend essentially on the modulation frequency, which leads to a strong frequency dependence of this error.

Eine Lichtlaufzeitmessung M lässt sich in Teile aus direktem und indirektem Pfad trennen: M = M d + M i

Figure DE102021128537A1_0006
A time-of-flight measurement M can be divided into parts from direct and indirect paths: M = M i.e + M i
Figure DE102021128537A1_0006

Der direkte Pfad Md bezeichnet die Messung ohne MPI-Fehler.The direct path M d denotes the measurement without MPI error.

Kennt man Md und M durch eine MPI-freie Messung so ergibt sich der Wahre MPI-Fehler zu M i = M M d

Figure DE102021128537A1_0007
If one knows M d and M from an MPI-free measurement, the true MPI error results in M i = M M i.e
Figure DE102021128537A1_0007

Es wird die Messung Md über ein Gerät ohne MPI-Fehler (Laserscanner) und M durch besonders rauscharme Messungen einer Lichtlaufzeitkamera bestimmt wird.The measurement M d is determined using a device without MPI errors (laser scanner) and M is determined using particularly low-noise measurements of a time-of-flight camera.

Wie in 3 gezeigt, werden im Training dem Modell maschinellen Lernens Lichtlaufzeitendaten M übergeben. Durch eine geeignete Kostenfunktion vergleicht man die Vorhersage Mi,v mit dem wahren MPI-Fehler Mi,w. Beispielhaft wäre die L1-Kostenfunktion geeignet: K L 1 = | M i , v M i , w |

Figure DE102021128537A1_0008
As in 3 shown, time-of-flight data M are passed to the machine learning model in the training. Using an appropriate cost function, one compares the prediction M i,v with the true MPI error M i,w . The L1 cost function would be suitable as an example: K L 1 = | M i , v M i , w |
Figure DE102021128537A1_0008

Selbstverständlich können auch andere Kosten- oder Optimierungsfunktionen herangezogen werden.Of course, other cost or optimization functions can also be used.

Beim Modell maschinellen Lernens eignen sich besonders neuronale Faltungsnetze.Neural convolution networks are particularly suitable for the machine learning model.

Anhand der Kostenfunktion werden dann die Gewichte und Vorspannungen des Modells maschinellen Lernens mit einem geeigneten Optimierungsverfahren (z.B. Adam) im Fehlerrückführungsverfahren angepasst.Based on the cost function, the weights and biases of the machine learning model are then adjusted using a suitable optimization method (e.g. Adam) in the error feedback method.

Am Ende des Trainingsvorganges hat man ein trainiertes Modell, welches den MPI-Fehler in hoher Genauigkeit abschätzt.At the end of the training process, you have a trained model that estimates the MPI error with a high level of accuracy.

Wie in 4 gezeigt, kann dabei der MPI-Fehler für jeden Pixel bestimmt werden. Lichtlaufzeitdaten können Rohdaten, korrigierte Rohdaten (auf Basis einer Kalibrierung) sein. Mehrfrequenzverfahren oder Coded Modulation sind ebenfalls möglich.As in 4 shown, the MPI error can be determined for each pixel. Time of flight data can be raw data, corrected raw data (based on a calibration). Multi-frequency processes or coded modulation are also possible.

Ferner kann das so trainierte Modell vorteilhaft wiederum als Kostenfunktion für das Training weiterer Modelle maschinellen Lernens herangezogen werden. Insbesondere kann es auch vorgesehen sein, Modelle mit unterschiedlichem Trainingsgraden für das Training weiterer Modelle heranzuziehen.Furthermore, the model trained in this way can advantageously in turn be used as a cost function for training further models of machine learning. In particular, it can also be provided that models with different degrees of training are used for the training of further models.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • DE 19704496 C2 [0002]DE 19704496 C2 [0002]
  • EP 3832351 A1 [0004]EP 3832351 A1 [0004]

Claims (7)

Verfahren zum Betreiben einer Lichtlaufzeitkamera, die einen Lichtlaufzeitsensor mit Lichtlaufzeitpixel umfasst, mit den Schritten: - Erfassung von Rohdaten mit Hilfe des Lichtlaufzeitsensors, - Korrektur der Rohdaten, indem die Rohdaten des Lichtlaufzeitsensors einem hinsichtlich Mehrwegausbreitung trainierten Modell maschinellen Lernens zugeführt werden und eine Inferenz des Modells maschinellen Lernens zur Korrektur der Rohdaten verwendet wird, wobei das Modell maschinellen Lernens mit experimentellen mehrwegfehlerbehafteten Trainingsdatenpaare trainiert wurde, - Bereitstellung der korrigierten Rohdaten für eine nachfolgende Ermittlung von Entfernungswerten.Method for operating a time-of-flight camera that includes a time-of-flight sensor with time-of-flight pixels, comprising the steps: - Acquisition of raw data using the time-of-flight sensor, - correction of the raw data, by feeding the raw data of the time-of-flight sensor to a machine learning model trained with regard to multipath propagation and using an inference of the machine learning model to correct the raw data, where the machine learning model was trained with experimental multipath error-prone training data pairs, - Provision of the corrected raw data for a subsequent determination of distance values. Verfahren nach Anspruch 1, bei dem die Ermittlung von Entfernungswerten ohne Verwendung eines Modells maschinellen Lernens ausgehend von den korrigierten Rohdaten erfolgt.procedure after claim 1 , in which distance values are determined from the corrected raw data without using a machine learning model. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das Modell maschinellen Lernens als neuronales Faltungsnetz ausgebildet ist.Method according to one of the preceding claims, in which the machine learning model is in the form of a neural convolution network. Lichtlaufzeitkamera, die zur Durchführung eines der vorgenannten Verfahren ausgebildet ist; mit wenigstens einem Prozessor, der ein Modell maschinellen Lernens umfasst.Time-of-flight camera designed to carry out one of the aforementioned methods; with at least one processor comprising a machine learning model. Verwendung des Modells maschinellen Lernens, das nach einem der Verfahren gemäß Anspruch 1 bis 3 trainiert wurde, als Kostenfunktion für das Training weiterer Modelle maschinellen Lernens.Use of the machine learning model according to one of the methods according to claim 1 until 3 was trained, as a cost function for training other machine learning models. Messaufbau zur Generierung experimenteller Trainingsdatenpaare mit einem Referenzsystem und einer Lichtlaufzeitkamera, wobei die Trainingsdatenpaare durch Kombinieren hochgenauer und punkteweise abgetasteter Distanzmessungen des Referenzsystems mit den Messungen einer Lichtlaufzeitkamera generiert werden.Measurement setup for generating experimental training data pairs with a reference system and a time-of-flight camera, whereby the training data pairs are generated by combining high-precision and point-by-point sampled distance measurements of the reference system with measurements from a time-of-flight camera. Messaufbau nach Anspruch 6, bei dem durch eine automatisierte Änderung der Parameter des Messaufbaus eine Datenvermehrung herbeigeführt wird.measurement setup claim 6 , in which data is multiplied by automatically changing the parameters of the measurement setup.
DE102021128537.2A 2020-11-11 2021-11-03 Time-of-flight camera and method for operating one Pending DE102021128537A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020129716 2020-11-11
DE102020129716.5 2020-11-11

Publications (1)

Publication Number Publication Date
DE102021128537A1 true DE102021128537A1 (en) 2022-05-12

Family

ID=81256127

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021128537.2A Pending DE102021128537A1 (en) 2020-11-11 2021-11-03 Time-of-flight camera and method for operating one

Country Status (1)

Country Link
DE (1) DE102021128537A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496C2 (en) 1996-09-05 2001-02-15 Rudolf Schwarte Method and device for determining the phase and / or amplitude information of an electromagnetic wave
EP3832351A1 (en) 2019-12-03 2021-06-09 Sony Semiconductor Solutions Corporation Apparatuses and methods for training a machine learning network for use with a time-of-flight camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496C2 (en) 1996-09-05 2001-02-15 Rudolf Schwarte Method and device for determining the phase and / or amplitude information of an electromagnetic wave
EP3832351A1 (en) 2019-12-03 2021-06-09 Sony Semiconductor Solutions Corporation Apparatuses and methods for training a machine learning network for use with a time-of-flight camera

Similar Documents

Publication Publication Date Title
DE102016107959B4 (en) Structured light-based multipath erasure in ToF imaging
DE69726421T2 (en) PROJECTOR WITH A CIRCUIT AND METHOD FOR AUTOMATICALLY ADJUSTING THE PROJECTOR
DE102017115028A1 (en) Method, apparatus and apparatus for generating target recognition information
DE102015108825B4 (en) TOF camera with location sensor system
DE102015000386A1 (en) Apparatus and method for measuring a three-dimensional shape and non-transitory computer-readable storage medium
DE102021102233B4 (en) Device and method for correspondence analysis in images
DE112010000019T5 (en) Method for optically scanning and measuring an environment
DE102010000075A1 (en) measuring device
DE102017102227A1 (en) Method and device for automatic identification of a point of interest in a depth measurement on a viewed object
DE112008000723T5 (en) Apparatus and method for testing the edge of a semiconductor wafer
DE202017104518U1 (en) Testing 3D Imaging Systems
WO2002041128A2 (en) Measuring method for determining the position of an object in front of a screen and a device for carrying out said method
DE102012023119A1 (en) Distance measuring device and method
DE19732883A1 (en) Distance measurement method for vehicle anti-collision system
DE102019003871A1 (en) Distance measuring device with polarization filter
DE102021109386B4 (en) Method for correcting depth images of a time-of-flight camera
DE102021128537A1 (en) Time-of-flight camera and method for operating one
DE102011056948A1 (en) Method for calibrating a camera to a position sensor
DE102021111602A1 (en) Computer-implemented method for correcting artifacts in measurement data generated by a time-of-flight 3D sensor, a corresponding computer program, a corresponding computer-readable medium and a PMD detector
DE102020123671B4 (en) Method and device for dynamic expansion of a time-of-flight camera system
DE112022001773T5 (en) Systems and methods for determining an adaptive region of interest (ROI) for calculating image metrics
DE102020101706A1 (en) Method for generating depth image pairs for a database
DE102020201379A1 (en) CONTOUR RECOGNITION DEVICE, CONTOUR RECOGNITION SYSTEM AND CONTOUR RECOGNITION METHOD
DE102016220290A1 (en) Method and apparatus for detecting a direct light reflection beam from an object to a light sensor
DE102020204761A1 (en) EVALUATION OF THE MODULATION TRANSFER FUNCTION FOR RED / CLEAR FILTERED OPTICAL DEVICES